collaboration
9.8K views | +0 today
Follow
Your new post is loading...
Your new post is loading...
Scooped by Pál Kerékfy
Scoop.it!

Why Facebook’s AI termination raises safety concerns

Why Facebook’s AI termination raises safety concerns | collaboration | Scoop.it
Revelations that researchers at Facebook had to switch off two bots that went rogue have raised questions about the safety of artificial intelligence.
Pál Kerékfy's insight:

A Facebook kutatóit aggasztotta, hogy az egymással beszélgető robotok új nyelvet fejlesztettek ki, amit a kutatók nem értettek. Ebben a példában megint az látszik, ami már az AlphaGo (https://palkerekfy.wordpress.com/2016/03/31/intelligens-felelem/ ) esetében is megjelent: hamar eljut a mesterséges intelligencia arra a szintre, hogy nem is értjük, mit csinál. Ha nem értjük, szabályozni és ellenőrizni sem tudjuk. Ezeket a robotokat ki lehetett kapcsolni. Egy következő majd nem hagyja magát kikapcsolni, vagy kialkudja az embernél, hogy ne kapcsolja ki. (Ahogy tegnap írtam, ebben is kezdenek nagyon jók lenni.)

Musk és Zuckerberg között éles vita alakult ki. Musk óvatosságot és ellenőrzést javasol a mesterséges intelligencia fejlesztése és használata területén. Zuckerberg felelőtlennek nevezi az ilyen embereket. Musk szerint – viszont – Zuckerberg nem érti ezt az egészet.

#Zuckerberg #Musk #Facebook #robot #AI #safety

No comment yet.
Scooped by Pál Kerékfy
Scoop.it!

Deal or no deal? Training AI bots to negotiate

FAIR researchers have demonstrated that dialog agents with differing goals can negotiate with other bots or people and reach mutual decisions.  

There were cases where agents initially feigned interest in a valueless item, only to later “compromise” by conceding it — an effective negotiating tactic that people use regularly. This behavior was not programmed by the researchers but was discovered by the bot as a method for trying to achieve its goals.

Pál Kerékfy's insight:

Mesterséges intelligenciával felruházott robotok kapták azt a feladatot, hogy alkudozzanak egymással néhány tárgy elosztása ügyében. Mindenképpen egyezségre kellett jutniuk a saját maguk számára legjobb eredményt kellett elérniük, és - természetesen - nem ismerté egymás céljait (kinek, melyik tárgy, mennyire értékes).

 

Azt vették észre, hogy előre be nem programmozott viselkedési módokra jöttek rá a robotok, pl.: félrevezetés.

 

Majd, amikor robotokkal kötünk üzletet, alaposan fel kell kötnünk, hiszen ők sokkal gyorsabban elemeznek, sokkal több lehetőséget tudnak elemezni, és se fizikailag, se mentálisan nem fáradnak el.

 

Érdemes elolvasni a cikket!

 

#facebook #AI #robot #negotiation

Facebook Artificial Intelligence Research (FAIR)

supervised learning, reinforcement learning

https://www.facebook.com/nuuman.bawa/posts/716212051912529

No comment yet.