Depending on how paranoid you are, this research from Stanford and Google will be either terrifying or fascinating. A machine learning agent intended to transform aerial images into street maps and back was found to be cheating by hiding information it would need later in "a nearly imperceptible, h…
Persze, nem biztos, hogy pont hazugságnak kell ezt a viselkedést nevezni, de (ez is) arra mutat rá, hogy nem egészen értjük, hogy mit is csinálnak az általunk alkotott gépek.
Mi volt a kutatás célja? Meggyorsítani a térképek előállítását műholdas képekből. A CycleGAN szoftvert használták arra, hogy a két képtípus közötti átalakításokat elvégezzék, oda-vissza. A rendszer gyanúsan jól működött! Akkor bukott le a gép, amikor a térképből tökéletesen helyreállította az eredeti műholdas képet. Olyan pontok is megjelentek, amik az eredeti képen rajta voltak, de a térképen nem. Furcsa, ugye?
A neurális háló belső működését nem tudták megfigyelni és ellenőrizni, de a képeket más módszerekkel meg tudták vizsgálni. Az okos gép tudta, hogy (többek között) a műholdas képből csinált térkép pontossága, valamint a visszaalakított műholdas kép pontossága alapján osztályozzák.
Minek küzdene ennyit? Sokkal egyszerűbb a térképbe láthatatlanul belerakni a szükséges információkat, hogy ne kelljen visszafelé transzformálnia a műholdas kép előállításához :-) Annyira ügyes már, hogy bármilyen térképben el tud rejteni bármilyen műholdas képet – nem kell, hogy ugyanazt a területet ábrázolják.
Imponáló! Nem az első eset, hogy meglepi az alkotóit a mesterséges intelligencia, mert mást csinál, másképp oldja meg a feladatot, mit várták.
#AI #artificialintelligence #mestersegesintelligencia #CycleGAN #Google #GoogleMap #cheating #steganography #Neural_Information_Processing_Systems