A gépi tanulási algoritmusok szépen lassan elhúznak mellettünk, és a fejünkre nőnek – ha nem vigyázunk. Ennek ugyan még nem fenyeget közvetlen közelről a veszélye, de azért beszédes, hogy alig egy évtizede egy gép megtanulta a macska azonosítását – és ez persze elkápráztatta a világot.
Néhány évvel később az AI képes volt pontosan lefordítani nyelveket és lealázta a Go világbajnokokat. A gépi tanulás ma már az olyan összetett többjátékos videojátékokra hajt, mint például a Starcraft és a Dota 2, és az olyan kifinomult tevékenységeket és gondolkodást igénylő játékokban is kiemelkedő teljesítményt nyújt, mint a póker. Vagyis úgy tűnik, hogy az AI elképesztően gyorsan fejlődik.
Az algoritmusok gyorsan “nőnek”
De milyen gyorsan? És mi is ennek a fejlődésnek a lényege? Miközben a jobb számítógépes chipek továbbra is kulcsfontosságúak, az OpenAI kutatóintézet úgy gondolja, a tényleges gépi tanulási algoritmusok fejlődésének ütemét is meg kell mérnünk.
És egyre hatékonyabbak
Az OpenAI munkatársai, Danny Hernandez és Tom Brown blogbejegyzésben és egy újságcikkben is írtak a témáról. Az anyagot arXiv-en, a nyomtatott előzetes (vagy még nem recenzált) tanulmányok nyitott felületén publikálták. Ezekben a kutatók azt állítják, hogy méréseik alapján a gépi tanulás hatékonysága elképesztő mértékben nőtt (vagyis képes arra, hogy egyre többet tegyen, egyre kevesebb idő- és energiaráfordítással). Ezzel megmutatták, hogy az AI ördögi ütemben egyre hatékonyabbá vált.
A referenciaérték-felismerési algoritmusok
A haladás számszerűsítése érdekében a kutatók 2012-től referenciaérték-felismerési algoritmust (AlexNet) választottak, és nyomon követték, hogy az újabb algoritmusok mekkora számítási teljesítményt igényelnek ahhoz, hogy megfeleljenek vagy meghaladják a referenciaértéket. Megállapították, hogy az algoritmikus hatékonyság 16 havonta megduplázódott, meghaladva a Moore törvényét. A képfelismerő AI-hez 2019-ben 44-szer kevesebb számítási teljesítményre volt szükség az AlexNet-szerű teljesítmény eléréséhez.
Comments are closed.