Revelations that researchers at Facebook had to switch off two bots that went rogue have raised questions about the safety of artificial intelligence.
Pál Kerékfy's insight:
A Facebook kutatóit aggasztotta, hogy az egymással beszélgető robotok új nyelvet fejlesztettek ki, amit a kutatók nem értettek. Ebben a példában megint az látszik, ami már az AlphaGo (https://palkerekfy.wordpress.com/2016/03/31/intelligens-felelem/ ) esetében is megjelent: hamar eljut a mesterséges intelligencia arra a szintre, hogy nem is értjük, mit csinál. Ha nem értjük, szabályozni és ellenőrizni sem tudjuk. Ezeket a robotokat ki lehetett kapcsolni. Egy következő majd nem hagyja magát kikapcsolni, vagy kialkudja az embernél, hogy ne kapcsolja ki. (Ahogy tegnap írtam, ebben is kezdenek nagyon jók lenni.)
Musk és Zuckerberg között éles vita alakult ki. Musk óvatosságot és ellenőrzést javasol a mesterséges intelligencia fejlesztése és használata területén. Zuckerberg felelőtlennek nevezi az ilyen embereket. Musk szerint – viszont – Zuckerberg nem érti ezt az egészet.
FAIR researchers have demonstrated that dialog agents with differing goals can negotiate with other bots or people and reach mutual decisions.
There were cases where agents initially feigned interest in a valueless item, only to later “compromise” by conceding it — an effective negotiating tactic that people use regularly. This behavior was not programmed by the researchers but was discovered by the bot as a method for trying to achieve its goals.
Pál Kerékfy's insight:
Mesterséges intelligenciával felruházott robotok kapták azt a feladatot, hogy alkudozzanak egymással néhány tárgy elosztása ügyében. Mindenképpen egyezségre kellett jutniuk a saját maguk számára legjobb eredményt kellett elérniük, és - természetesen - nem ismerté egymás céljait (kinek, melyik tárgy, mennyire értékes).
Azt vették észre, hogy előre be nem programmozott viselkedési módokra jöttek rá a robotok, pl.: félrevezetés.
Majd, amikor robotokkal kötünk üzletet, alaposan fel kell kötnünk, hiszen ők sokkal gyorsabban elemeznek, sokkal több lehetőséget tudnak elemezni, és se fizikailag, se mentálisan nem fáradnak el.
To get content containing either thought or leadership enter:
To get content containing both thought and leadership enter:
To get content containing the expression thought leadership enter:
You can enter several keywords and you can refine them whenever you want. Our suggestion engine uses more signals but entering a few keywords here will rapidly give you great content to curate.
A Facebook kutatóit aggasztotta, hogy az egymással beszélgető robotok új nyelvet fejlesztettek ki, amit a kutatók nem értettek. Ebben a példában megint az látszik, ami már az AlphaGo (https://palkerekfy.wordpress.com/2016/03/31/intelligens-felelem/ ) esetében is megjelent: hamar eljut a mesterséges intelligencia arra a szintre, hogy nem is értjük, mit csinál. Ha nem értjük, szabályozni és ellenőrizni sem tudjuk. Ezeket a robotokat ki lehetett kapcsolni. Egy következő majd nem hagyja magát kikapcsolni, vagy kialkudja az embernél, hogy ne kapcsolja ki. (Ahogy tegnap írtam, ebben is kezdenek nagyon jók lenni.)
Musk és Zuckerberg között éles vita alakult ki. Musk óvatosságot és ellenőrzést javasol a mesterséges intelligencia fejlesztése és használata területén. Zuckerberg felelőtlennek nevezi az ilyen embereket. Musk szerint – viszont – Zuckerberg nem érti ezt az egészet.
#Zuckerberg #Musk #Facebook #robot #AI #safety