collaboration
9.8K views | +0 today
Follow
Your new post is loading...
Your new post is loading...
Scooped by Pál Kerékfy
Scoop.it!

Why Facebook’s AI termination raises safety concerns

Why Facebook’s AI termination raises safety concerns | collaboration | Scoop.it
Revelations that researchers at Facebook had to switch off two bots that went rogue have raised questions about the safety of artificial intelligence.
Pál Kerékfy's insight:

A Facebook kutatóit aggasztotta, hogy az egymással beszélgető robotok új nyelvet fejlesztettek ki, amit a kutatók nem értettek. Ebben a példában megint az látszik, ami már az AlphaGo (https://palkerekfy.wordpress.com/2016/03/31/intelligens-felelem/ ) esetében is megjelent: hamar eljut a mesterséges intelligencia arra a szintre, hogy nem is értjük, mit csinál. Ha nem értjük, szabályozni és ellenőrizni sem tudjuk. Ezeket a robotokat ki lehetett kapcsolni. Egy következő majd nem hagyja magát kikapcsolni, vagy kialkudja az embernél, hogy ne kapcsolja ki. (Ahogy tegnap írtam, ebben is kezdenek nagyon jók lenni.)

Musk és Zuckerberg között éles vita alakult ki. Musk óvatosságot és ellenőrzést javasol a mesterséges intelligencia fejlesztése és használata területén. Zuckerberg felelőtlennek nevezi az ilyen embereket. Musk szerint – viszont – Zuckerberg nem érti ezt az egészet.

#Zuckerberg #Musk #Facebook #robot #AI #safety

No comment yet.
Scooped by Pál Kerékfy
Scoop.it!

Will the Future be Filled with Biased Robots? – Startup Grind – Medium

Will the Future be Filled with Biased Robots? – Startup Grind – Medium | collaboration | Scoop.it

If we’re the ones telling AI when it was correct and when it made a mistake, then we must be sure that we know right from wrong .
The data we use to train the bot in the first place may contain hidden biases, and the code that brings it to life might also reflect certain perspectives of the programmers.

Pál Kerékfy's insight:

A mesterséges intelligencia úgy szerez tudást, úgy fejlődik, hogy emberektől tanul.
Kitől tanul? Hogy veszi át a tanítójának az elfogultságát, előítéleteit, butaságát?
Valódi a probléma? Az eddigiek azt mutatják, hogy nagyon valódi!
Ne csak a butácska Tay csetelő robotot nézzük - ő egy napig se élt.
Ha valami bonyolultat kérdezünk a Google-tól, bizony jó esélyünk van hibás választ kapni. Észrevesszük vajon? Egyre kevésbé...
Példák a cikkben...

A Google és a Facebook (a két leginkább megbízhatónak tartott információforrás) a használóitól tanul, azt adja tovább, amit a használói mondank, kérdeznek, megosztanak. A butaságot erősítik???

 

#AI #Google #Tay #Microsoft #Facebook #fake #harmful #destructive

No comment yet.
Scooped by Pál Kerékfy
Scoop.it!

Deal or no deal? Training AI bots to negotiate

FAIR researchers have demonstrated that dialog agents with differing goals can negotiate with other bots or people and reach mutual decisions.  

There were cases where agents initially feigned interest in a valueless item, only to later “compromise” by conceding it — an effective negotiating tactic that people use regularly. This behavior was not programmed by the researchers but was discovered by the bot as a method for trying to achieve its goals.

Pál Kerékfy's insight:

Mesterséges intelligenciával felruházott robotok kapták azt a feladatot, hogy alkudozzanak egymással néhány tárgy elosztása ügyében. Mindenképpen egyezségre kellett jutniuk a saját maguk számára legjobb eredményt kellett elérniük, és - természetesen - nem ismerté egymás céljait (kinek, melyik tárgy, mennyire értékes).

 

Azt vették észre, hogy előre be nem programmozott viselkedési módokra jöttek rá a robotok, pl.: félrevezetés.

 

Majd, amikor robotokkal kötünk üzletet, alaposan fel kell kötnünk, hiszen ők sokkal gyorsabban elemeznek, sokkal több lehetőséget tudnak elemezni, és se fizikailag, se mentálisan nem fáradnak el.

 

Érdemes elolvasni a cikket!

 

#facebook #AI #robot #negotiation

Facebook Artificial Intelligence Research (FAIR)

supervised learning, reinforcement learning

https://www.facebook.com/nuuman.bawa/posts/716212051912529

No comment yet.