Tech

Efektet negative të AI, ajo po përdoret për të gjeneruar pornografi për fëmijë!

Përparimi i shpejtë i programeve të inteligjencës artificiale (AI) të afta për të gjeneruar imazhe realiste ka çuar në një shpërthim në pornografinë e fëmijëve dhe përpjekjet e shantazhit nga kriminelët e vendosur për të shfrytëzuar fëmijët dhe adoleshentët. Yaron Litwin, CMO dhe Eksperti i Sigurisë Dixhitale për Canopy, një zgjidhje udhëheqëse e AI për të luftuar përmbajtjen e dëmshme dixhitale, tha për Fox News Digital se pedofilët po përdorin mjetet në zhvillim në mënyra të ndryshme, shpesh me qëllimin për të prodhuar dhe shpërndarë imazhe të fëmijëve. shfrytëzimit seksual në internet.

Një nga këto teknika përfshin redaktimin e një fotografie të vërtetë të një adoleshenti të veshur plotësisht dhe kthimin e saj në një imazh nudo. Në një shembull të botës reale të ofruar nga Litwin, një djalë 15-vjeçar i interesuar për fitnesin personal iu bashkua një rrjeti në internet të entuziastëve të palestrës. Një ditë, ai ndau një foto duke përfshirë gjoksin e tij të zhveshur pas një stërvitje në grup. Ai imazh është marrë, është modifikuar në një foto nudo dhe është përdorur për të shantazhuar adoleshentin, i cili fillimisht mendoi se fotografia e tij ishte e padëmshme dhe e sigurt në duart e kolegëve të palestrës.

Në vitin 2022, faqet kryesore të mediave sociale raportuan një rritje prej 9% të materialeve të dyshuara për abuzim seksual të fëmijëve në platformat e tyre. Nga këto raporte, 85% erdhën nga platformat dixhitale Meta si Facebook, Instagram dhe WhatsApp. Shefja e sigurisë së Metës, Antigone Davis, ka deklaruar më parë se 98% e përmbajtjeve të rrezikshme hiqen përpara se dikush ta raportojë atë në ekipin e tyre dhe kompania raporton më shumë materiale të abuzimit seksual të fëmijëve (CSAM) se çdo shërbim tjetër.

Litwin tha se procesi i redaktimit të imazheve ekzistuese me AI është bërë tepër i lehtë dhe i shpejtë, duke çuar shpesh në përvoja të tmerrshme për familjet. Kjo lehtësi e përdorimit kalon edhe në krijimin e imazheve krejtësisht të fabrikuara të shfrytëzimit seksual të fëmijëve, të cilat nuk mbështeten në fotografi autentike. Litwin tha:

Këta nuk janë fëmijë të vërtetë. Këta janë fëmijë që po krijohen përmes AI dhe si këto AI, pasi algoritmi po merr më shumë nga këto imazhe, ai mund të përmirësohet në thelb, në një mënyrë negative.

Sipas një analize të fundit, imazhet e krijuara nga AI të fëmijëve të përfshirë në akte seksuale mund të prishin sistemin qendror të gjurmimit që bllokon CSAM nga ueb. Në formën e tij aktuale, sistemi është krijuar vetëm për të zbuluar imazhet e njohura të abuzimit dhe jo ato të krijuara. Ky variabël i ri mund të bëjë që organet e zbatimit të ligjit të shpenzojnë më shumë kohë për të përcaktuar nëse një imazh është real apo i krijuar nga AI.

Litwin tha se këto imazhe paraqesin gjithashtu pyetje unike rreth asaj që shkel ligjet shtetërore dhe federale për mbrojtjen e fëmijëve dhe pornografinë. Ndërsa oficerët e zbatimit të ligjit dhe zyrtarët e Departamentit të Drejtësisë pohojnë se materiale të tilla janë të paligjshme edhe nëse fëmija në fjalë është i krijuar nga AI, asnjë rast i tillë nuk është gjykuar në gjykatë.

Për më tepër, argumentet ligjore të së kaluarës tregojnë se një përmbajtje e tillë mund të jetë një zonë gri në ligjin e SHBA. Për shembull, Gjykata e Lartë rrëzoi disa dispozita që ndalonin pornografinë virtuale të fëmijëve në vitin 2002, duke argumentuar se vendimi ishte shumë i gjerë dhe madje mund të përfshinte dhe kriminalizonte përshkrimet e seksualitetit të adoleshentëve në letërsinë popullore.