Appleren CSAM sistema engainatu egin zen, baina konpainiak bi babes ditu

Eguneraketa: Apple-k zerbitzariaren bigarren ikuskapena aipatu zuen, eta ordenagailu bidezko ikusmeneko enpresa profesional batek behean "Bigarren ikuskapenak nola funtziona dezakeen" deskribatu zitekeen aukera azaldu zuen.
Garatzaileek haren zatiak alderantzikatu ondoren, Apple CSAM sistemaren lehen bertsioa modu eraginkorrean engainatu da irudi errugabe bat markatzeko.Hala ere, Applek esan zuen babes osagarriak dituela bizitza errealean hori gerta ez dadin.
Azken garapena NeuralHash algoritmoa GitHub kode irekiko garatzaileen webgunean argitaratu ostean gertatu da, edonork esperimentatu dezake...
CSAM sistema guztiek haurren sexu abusu ezagunen datu-base bat inportatzen dute, hala nola National Center for Missing and Exploited Children (NCMEC) erakundeetatik.Datu-basea hash edo irudien hatz-markak digital moduan ematen da.
Erraldoi teknologiko gehienek hodeian kargatutako argazkiak eskaneatu arren, Apple-k bezeroaren iPhonean NeuralHash algoritmoa erabiltzen du gordetako argazkiaren hash balio bat sortzeko, eta, ondoren, CSAM hash balioaren deskargatutako kopiarekin alderatzen du.
Atzo, garatzaile batek Apple-ren algoritmoa alderantzizko ingeniaritza egin zuela esan zuen eta kodea GitHub-i kaleratu zuen; Apple-k baieztatu zuen erreklamazio hau.
GitHib kaleratu eta ordu gutxira, ikertzaileek arrakastaz erabili zuten algoritmoa nahita positibo faltsu bat sortzeko: hash balio bera sortu zuten bi irudi guztiz desberdinak.Horri talka deitzen zaio.
Horrelako sistemetarako, beti dago talka egiteko arriskua, hash-a, noski, irudiaren irudikapen oso sinplifikatua delako, baina harritzekoa da norbaitek irudia hain azkar sortzea.
Hemen nahitako talka kontzeptuaren froga bat besterik ez da.Garatzaileek ez dute sarbiderik CSAM hash datu-baserako, eta horrek denbora errealeko sisteman positibo faltsuak sortzea eskatuko luke, baina frogatzen du talka erasoak printzipioz nahiko errazak direla.
Applek eraginkortasunez baieztatu zuen algoritmoa bere sistemaren oinarria dela, baina plaka nagusiari esan zion ez dela azken bertsioa.Konpainiak ere adierazi zuen ez zuela inoiz isilpekotasuna gordetzeko asmorik.
Applek Motherboard-ek mezu elektroniko batean esan zion erabiltzaileak GitHub-en aztertutako bertsioa bertsio generikoa dela, ez iCloud Photo CSAM detektatzeko erabiltzen den azken bertsioa.Applek esan zuen algoritmoa ere ezagutarazi zuela.
"NeuralHash algoritmoa [...] sinatutako sistema eragilearen kodearen parte da [eta] segurtasun ikertzaileek bere portaera deskribapenarekin bat datorrela egiazta dezakete", idatzi zuen Apple-ren dokumentu batek.
Konpainiak beste bi urrats daudela esan zuen: bigarren mailako (sekretua) bat etortzeko sistema bat exekutatzea bere zerbitzarian eta eskuzko berrikuspena.
Applek ere adierazi du erabiltzaileek 30 partidako atalasea gainditu ondoren, Appleren zerbitzarietan exekutatzen den bigarren algoritmo publiko batek emaitzak egiaztatuko dituela.
"Hash independente hau NeuralHash okerrak gailuko enkriptatutako CSAM datu-basearekin bat etortzeko aukera baztertzeko aukeratu zen, CSAM ez diren irudien aurkako interferentziagatik eta bat datorren atalasea gainditzeko".
Roboflow-eko Brad Dwyer-ek talka-eraso baten kontzeptu froga gisa argitaratutako bi irudiak erraz bereizteko modu bat aurkitu zuen.
Bitxia naiz irudi hauek nola ikusten diren OpenAI ezaugarri neuronalak ateratzeko antzeko baina desberdina den CLIPean.CLIP NeuralHash-en antzera funtzionatzen du;irudi bat hartzen du eta sare neuronal bat erabiltzen du irudiaren edukiarekin mapatzen diren ezaugarri-bektore multzo bat sortzeko.
Baina OpenAIren sarea ezberdina da.Irudien eta testuaren arteko mapa egin dezakeen eredu orokorra da.Horrek esan nahi du gizakiek irudi ulergarria den informazioa ateratzeko erabil dezakegula.
Goiko talkaren bi irudiak CLIP bidez exekutatu nituen ere engainatu ote zen ikusteko.Erantzun laburra hau da: ez.Horrek esan nahi du Apple-k detektatutako CSAM irudiei bigarren ezaugarri-erauzketa-sare bat (CLIP adibidez) aplikatzeko gai izan behar duela benetakoak edo faltsuak diren zehazteko.Askoz zailagoa da bi sare aldi berean engainatzen dituzten irudiak sortzea.
Azkenik, lehen esan bezala, irudiak eskuz berrikusten dira CSAM direla baieztatzeko.
Segurtasun ikertzaile batek esan zuen benetako arrisku bakarra Apple gogaitu nahi duenak positibo faltsuak eman diezazkiokeela giza ebaluatzaileei.
"Apple-k benetan diseinatu zuen sistema hau, eta, beraz, hash funtzioa ez da sekretuan gorde behar, 'CSAM ez den CSAM gisa'-rekin egin dezakezun gauza bakarra Appleren erantzun-taldea zabor-irudi batzuekin gogaitzea delako, ezabatzeko iragazkiak ezarri arte. analisia Hodibidean dauden zabor horiek positibo faltsuak dira ", esan zuen Nicholas Weaver Kaliforniako Unibertsitateko Nazioarteko Informatika Institutuko ikertzaile nagusiak Motherboard sareko txat batean.
Pribatutasuna gero eta kezka handiagoa da gaur egungo munduan.Jarraitu pribatutasunarekin, segurtasunarekin eta abarrekin lotutako txosten guztiak gure jarraibideetan.
Ben Lovejoy idazle tekniko britainiarra eta EBko editorea da 9to5Mac-en.Bere zutabeengatik eta egunkariko artikuluengatik da ezaguna, denboran zehar Appleko produktuekin izandako esperientzia aztertzen duela iritzi osoagoak lortzeko.Eleberriak ere idazten ditu, bi thriller tekniko daude, zientzia-fikziozko film labur batzuk eta rom-com bat!


Argitalpenaren ordua: 2021-abuztuaren 20a