Changing the pattern on an object can fool an image recognition system into thinking it is looking at something else entirely – raising big concerns about face ID and driverless cars.
A hacker could make a hospital look like a target to a military drone, or a person of interest look like an innocent stranger to a face-recognition security system,” says Jeff Clune at the University of Wyoming.
A tegnapelőtti írásomhoz kapcsolódó másik kutatás (ebben az esetben az MIT, Massachusetts Institute of Technology részéről) szintén azt bizonyítja, hogy az ember számára lényegtelen, semmi problémát nem jelentő változtatások, a gépet teljesen átverhetik. Ebben a példában teknőst vél lőfegyvernek, de a lehetőségek korlátlanok: “A hacker could make a hospital look like a target to a military drone, or a person of interest look like an innocent stranger to a face-recognition security system,” says Jeff Clune at the University of Wyoming.”
Ha így állunk, akkor komolyan át kell gondolni, hogy milyen döntéseket bízhatunk az “okos” gépre!
Mit ér így a gépi arcfelismerés? Hogy fog így biztonságosan vezetni az önvezető autó?
#MIT @MITnews @mit #AI #artificialintelligence #classification #adversarial