collaboration
9.8K views | +0 today
Follow
Your new post is loading...
Your new post is loading...
Scooped by Pál Kerékfy
Scoop.it!

Deal or no deal? Training AI bots to negotiate

FAIR researchers have demonstrated that dialog agents with differing goals can negotiate with other bots or people and reach mutual decisions.  

There were cases where agents initially feigned interest in a valueless item, only to later “compromise” by conceding it — an effective negotiating tactic that people use regularly. This behavior was not programmed by the researchers but was discovered by the bot as a method for trying to achieve its goals.

Pál Kerékfy's insight:

Mesterséges intelligenciával felruházott robotok kapták azt a feladatot, hogy alkudozzanak egymással néhány tárgy elosztása ügyében. Mindenképpen egyezségre kellett jutniuk a saját maguk számára legjobb eredményt kellett elérniük, és - természetesen - nem ismerté egymás céljait (kinek, melyik tárgy, mennyire értékes).

 

Azt vették észre, hogy előre be nem programmozott viselkedési módokra jöttek rá a robotok, pl.: félrevezetés.

 

Majd, amikor robotokkal kötünk üzletet, alaposan fel kell kötnünk, hiszen ők sokkal gyorsabban elemeznek, sokkal több lehetőséget tudnak elemezni, és se fizikailag, se mentálisan nem fáradnak el.

 

Érdemes elolvasni a cikket!

 

#facebook #AI #robot #negotiation

Facebook Artificial Intelligence Research (FAIR)

supervised learning, reinforcement learning

https://www.facebook.com/nuuman.bawa/posts/716212051912529

No comment yet.
Scooped by Pál Kerékfy
Scoop.it!

Will the Future be Filled with Biased Robots? – Startup Grind – Medium

Will the Future be Filled with Biased Robots? – Startup Grind – Medium | collaboration | Scoop.it

If we’re the ones telling AI when it was correct and when it made a mistake, then we must be sure that we know right from wrong .
The data we use to train the bot in the first place may contain hidden biases, and the code that brings it to life might also reflect certain perspectives of the programmers.

Pál Kerékfy's insight:

A mesterséges intelligencia úgy szerez tudást, úgy fejlődik, hogy emberektől tanul.
Kitől tanul? Hogy veszi át a tanítójának az elfogultságát, előítéleteit, butaságát?
Valódi a probléma? Az eddigiek azt mutatják, hogy nagyon valódi!
Ne csak a butácska Tay csetelő robotot nézzük - ő egy napig se élt.
Ha valami bonyolultat kérdezünk a Google-tól, bizony jó esélyünk van hibás választ kapni. Észrevesszük vajon? Egyre kevésbé...
Példák a cikkben...

A Google és a Facebook (a két leginkább megbízhatónak tartott információforrás) a használóitól tanul, azt adja tovább, amit a használói mondank, kérdeznek, megosztanak. A butaságot erősítik???

 

#AI #Google #Tay #Microsoft #Facebook #fake #harmful #destructive

No comment yet.