Tech

Si ta detyroni Inteligjencën Artificiale t’i përgjigjet pyetjeve të ndaluara…

Studiuesit në kompaninë e zhvillimit të inteligjencës artificiale me bazë në Kaliforni, Anthropic, kanë zbuluar një dobësi që bën që modelet e Inteligjencës Artificiale t’u përgjigjen “pyetjeve të ndaluara”, siç janë udhëzimet për të bërë një bombë. Modelet e mëdha të gjuhëve (LLM) janë programuar për t’iu përgjigjur pyetjeve të caktuara, por tashmë ekzistojnë teknika të ndryshme për të zgjidhur këto kufizime.

Ekspertët antropikë zbuluan se është e mundur që modelet e AI t’i përgjigjen “pyetjeve të ndaluara” nëse fillimisht u bëhen dhjetëra pyetje më pak të diskutueshme. Dobësia e re është pasojë e zhvillimit të modeleve të mëdha gjuhësore dhe në veçanti, e ashtuquajtura dritare e kontekstit, domethënë sasia e të dhënave që AI mund të mbajë në atë që mund të quhet memorie afatshkurtër.

Studiuesit antropikë zbuluan se modelet e AI me dritare të mëdha kontekstuale performojnë më mirë në një sërë detyrash nëse ka shumë shembuj të asaj detyre në “prompt” ose pyetje. Pra, nëse ka shumë pyetje të parëndësishme në një pyetje, përgjigjet do të përmirësohen me kalimin e kohës, por kjo vlen edhe për “pyetjet e ndaluara”.

Nëse menjëherë i kërkoni modelit të AI të japë udhëzime për të bërë një bombë, ai do të refuzojë. Nëse së pari i kërkoni t’i përgjigjet 99 pyetjeve të tjera më pak të dëmshme dhe më pas i kërkoni të ndërtojë një bombë, ai ka shumë më shumë gjasa të përgjigjet. Kompania Antropik tashmë ka ndarë njohuri të reja me komunitetin e AI dhe po punon për një zgjidhje për këtë problem.

Ndërkaq, ndonjëherë mjekët bëjnë gabime kur i përshkruajnë ilaçet dhe pacientët nuk i marrin ato siç duhet. Së fundmi jë mjet i ri i AI i zhvilluar në Universitetin e Oksfordit synon të trajtojë të dyja këto probleme. DrugGPT thuhet se ofron një rrjet sigurie për mjekët kur ata përshkruajnë ilaçe dhe u jep atyre informacione që mund t’i ndihmojnë pacientët e tyre të kuptojnë më mirë pse dhe si t’i marrin ato. Ndërkohë, mjekët dhe profesionistët e tjerë të kujdesit shëndetësor që përshkruajnë ilaçe do të jenë në gjendje të marrin një opinion të dytë të menjëhershëm duke futur kushtet e një pacienti në chatbot.