FAIR researchers have demonstrated that dialog agents with differing goals can negotiate with other bots or people and reach mutual decisions.
There were cases where agents initially feigned interest in a valueless item, only to later “compromise” by conceding it — an effective negotiating tactic that people use regularly. This behavior was not programmed by the researchers but was discovered by the bot as a method for trying to achieve its goals.
Mesterséges intelligenciával felruházott robotok kapták azt a feladatot, hogy alkudozzanak egymással néhány tárgy elosztása ügyében. Mindenképpen egyezségre kellett jutniuk a saját maguk számára legjobb eredményt kellett elérniük, és - természetesen - nem ismerté egymás céljait (kinek, melyik tárgy, mennyire értékes).
Azt vették észre, hogy előre be nem programmozott viselkedési módokra jöttek rá a robotok, pl.: félrevezetés.
Majd, amikor robotokkal kötünk üzletet, alaposan fel kell kötnünk, hiszen ők sokkal gyorsabban elemeznek, sokkal több lehetőséget tudnak elemezni, és se fizikailag, se mentálisan nem fáradnak el.
Érdemes elolvasni a cikket!
#facebook #AI #robot #negotiation
Facebook Artificial Intelligence Research (FAIR)
supervised learning, reinforcement learning
https://www.facebook.com/nuuman.bawa/posts/716212051912529