collaboration
9.8K views | +0 today
Follow
Your new post is loading...
Your new post is loading...
Scooped by Pál Kerékfy
Scoop.it!

Okos gép az okos támadók ellen?

Okos gép az okos támadók ellen? | collaboration | Scoop.it

From ransomware to botnets, malware takes seemingly endless forms, and it’s forever proliferating. Try as we might, the humans who would defend our computers from it are drowning in the onslaught, so they are turning to AI for help.

Cybersecurity firm Endgame released a large, open-source data set called EMBER (for “Endgame Malware Benchmark for Research”). EMBER is a collection of more than a million representations of benign and malicious Windows-portable executable files, a format where malware often hides. A team at the company also released AI software that can be trained on the data set. The idea is that if AI is to become a potent weapon in the fight against malware, it needs to know what to look for.

Pál Kerékfy's insight:

Minthogy a támadók kiválóan hasznosítják a gépi okosságot az újabb és újabb vírusok (miegyebek) előállításában, ideje, hogy a védelem is felvegye a tempót. Az EMBER nem az egyetlen és nem is az első ilyen próbálkozás, de mindnek lehet örülni…

 

Az IBM egy más területen veti be a mesterséges intelligenciát: Watson, a biztonsági szakember. Ők a vállalati rendszereket ért támadásokat akarják gyorsan felismerni. Az a cél, gyorsan, egy szempillantás alatt elemezze információk tömkelegét, és találja meg az összefüggéseket a különböző rendszerekben észlelt és nehezen összekapcsolható események között. Ha sikerül ezeket a kapcsolatokat felfedezni, akkor azonnal kiderül, hogy önmagukban ártalmatlannak tűnő események együttesen támadásra utalnak.

 

Az Endgame áprilisi bejelentése óta mintha nem lenne újabb hír erről az EMBER-ről, pedig tényleg jó lenne valami pozitívum!

Azt mondja az MIT írásának címe, hogy épp olyan könnyedén azonosítja a rosszindulatú szoftvert, amilyen könnyen felismer egy macskát.

 

Halkan megjegyzem, friss egyetemi kutatások szerint, ez sem megy annyira könnyen a gépnek. Teknős vagy lőfegyver?

 

#MIT @MITnews #EMBER #Endgame @Endgame #IBM #Watson #imagerecognition #mesterségesintelligencia #AI #machinelearning

No comment yet.
Scooped by Pál Kerékfy
Scoop.it!

Hogy verjük át könnyen és egyszerűen a mesterséges intelligenciát?

Hogy verjük át könnyen és egyszerűen a mesterséges intelligenciát? | collaboration | Scoop.it

Minor changes to street sign graphics can fool machine learning algorithms into thinking the signs say something completely different. 

The upshot here is that slight alterations to an image that are invisible to humans can result in wildly different (and sometimes bizarre) interpretations from a machine learning algorithm.

Pál Kerékfy's insight:

Ha a gépi intelligencia gyorsabb és okosabb akar nálunk lenni, akkor nem emberi, hanem gépi tanulási és elemzési módszereket vetnek be az alkotói. Ebben az a “szép”, hogy nagyrészt ismeretlen számunkra. Nem könnyű megérteni a működését, és nem is könnyű tesztelni.

 

Az IEEE írása amerikai egyetemek (University of Washington, University of Michigan, Stony Brook University és University of California Berkeley) kutatóinak cikkére hivatkozik (https://arxiv.org/abs/1707.08945), akik kimutatták, hogy könnyen át lehet verni a képfelismerő algoritmusokat. Olyan változtatásokat végeznek a képen, amiket az emberi szem nem vesz észre (vagy lényegtelennek lát). A gép viszont valami egész mást lát ott, mint ami van, például: panda helyett gibbont vagy kötelező haladási irány helyett csúszós úttest táblát.

 

Idézet a cikkből: “The Stop sign is misclassified into our target class of Speed Limit 45 in 100% of the images taken according to our evaluation methodology. For the Right Turn sign… Our attack reports a 100% success rate for misclassification with 66.67% of the images classified as a Stop sign and 33.7% of the images classified as an Added Lane sign.”

 

Ha a támadó hozzá tud férni az algoritmushoz, nem a belsejéhez, hanem tesztelni tudja, hogy milyen képet hogyan ismer fel, akkor létre tudja hozni a megfelelő változtatást, például, ráragaszt valamit a STOP táblára, ami az embert még nem zavarja, de a gépet megbolondítja.

 

Nyilván lehet védekezni minden egyes támadás ellen, de már megint ott tartunk, mint a vírusok esetében. Előbb jön a támadás, utána kezdünk el védekezni ellene..

 

#AI #IEEE @UW @UofWa @UCBerkeley @umich @UniversityOfMichigan @stonybrooku #artificialintelligence #classification #adversarial

No comment yet.
Scooped by Pál Kerékfy
Scoop.it!

Teknős vagy lőfegyver? Meg tudjuk különböztetni?

Teknős vagy lőfegyver? Meg tudjuk különböztetni? | collaboration | Scoop.it

Changing the pattern on an object can fool an image recognition system into thinking it is looking at something else entirely – raising big concerns about face ID and driverless cars.

A hacker could make a hospital look like a target to a military drone, or a person of interest look like an innocent stranger to a face-recognition security system,” says Jeff Clune at the University of Wyoming.

Pál Kerékfy's insight:

A tegnapelőtti írásomhoz kapcsolódó másik kutatás (ebben az esetben az MIT, Massachusetts Institute of Technology részéről) szintén azt bizonyítja, hogy az ember számára lényegtelen, semmi problémát nem jelentő változtatások, a gépet teljesen átverhetik. Ebben a példában teknőst vél lőfegyvernek, de a lehetőségek korlátlanok: “A hacker could make a hospital look like a target to a military drone, or a person of interest look like an innocent stranger to a face-recognition security system,” says Jeff Clune at the University of Wyoming.

 

Ha így állunk, akkor komolyan át kell gondolni, hogy milyen döntéseket bízhatunk az “okos” gépre!

 

Mit ér így a gépi arcfelismerés? Hogy fog így biztonságosan vezetni az önvezető autó?

 

#MIT @MITnews @mit #AI #artificialintelligence #classification #adversarial

No comment yet.