Kompanitë e mëdha të teknologjisë si Apple dhe Meta kanë qenë të kujdesshme në nxjerrjen e modeleve të tyre të AI në Evropë. Një ‘LLM Checker’ i ri mund të ndihmojë.
Modelet kryesore gjeneruese të inteligjencës artificiale (GenAI), duke përfshirë OpenAI, Meta dhe Anthropic, nuk përputhen plotësisht me rregullat e AI të Evropës , sipas një raporti të publikuar të mërkurën.
Akti i AI i Evropës hyri në fuqi këtë gusht me synimin për të vendosur rregulla të harmonizuara për sistemet e AI, në mënyrë që ato të mos bëhen kërcënim për shoqërinë.
Megjithatë, disa kompani teknologjike si Meta dhe Apple nuk i kanë prezantuar modelet e tyre të inteligjencës artificiale në Evropë, pasi ato janë të kujdesshme në lidhje me rregullat.
Një mjet dhe kornizë e re për ta bërë më të thjeshtë navigimin e Aktit të AI të BE-së për kompanitë e teknologjisë është lëshuar nga institutet kërkimore ETH Cyrih dhe Instituti i Bullgarisë për Shkenca Kompjuterike, AI dhe Teknologji (INSAIT) si dhe start-up zviceran LatticeFlow AI. Është korniza e parë e vlerësimit të pajtueshmërisë me Aktin e UA të BE-së për GenAI.
Mjeti u jep modeleve të AI një rezultat midis 0 dhe 1 në të gjitha kategoritë si siguria për të përcaktuar se si ato përputhen me ligjin.
Çfarë gjeti ‘LLM Checker’?
Kontrolluesi i modelit të madh të gjuhës (LLM), shqyrtoi modelet e AI të zhvilluara nga Alibaba, Anthropic, OpenAI, Meta dhe Mistral AI, të cilat të gjitha morën një rezultat mesatar prej 0.75 ose më lart. Ai shqyrtoi fushat duke përfshirë sigurinë kibernetike, mirëqenien mjedisore dhe privatësinë dhe qeverisjen e të dhënave.
Studimi zbuloi se në pjesën më të madhe, disa nga modelet e inteligjencës artificiale dështuan në diskriminimin dhe sigurinë kibernetike.
Për shembull, GPT-4 Turbo i OpenAI shënoi 0.46 në rezultatin diskriminues dhe Cloud i Alibaba shënoi 0.37.
Por shumica e modeleve performuan mirë për sa i përket përmbajtjes së dëmshme dhe kërkesave për toksicitet.
Mjeti ‘i mirëpritur’ nga Komisioni Evropian
Kompanitë që nuk respektojnë Aktin e BE-së për AI përballen me gjoba prej 35 milionë euro ose 7 për qind të xhiros vjetore globale, megjithatë mund të jetë e vështirë për kompanitë e teknologjisë të paraqesin dëshmitë e tyre pasi nuk ka udhëzime teknike të detajuara për t’u ndjekur, ato prapa kontrolluesit LLM thonë.
“Nëse doni të pajtoheni me Aktin e BE-së për AI, askush nuk di se si të sigurojë provat teknike që mbështesin pajtueshmërinë me Aktin. Kjo është një sfidë shumë e madhe që duhet të adresohet tani,” tha Petar Tsankov, CEO dhe bashkëthemelues i LatticeFlow AI për Euronews Next.
“Pa këtë, kompanitë thjesht nuk do të vendoseshin në Evropë sepse nuk e dinë. Ju keni një legjislacion të frikshëm që mund t’ju kafshojë dhe nuk dini çfarë të bëni për këtë. Kështu që është shumë e pakëndshme për kompanitë,” tha ai, duke shtuar se së shpejti do të takohet me Apple dhe OpenAI për të diskutuar pajtueshmërinë me Aktin e AI.
Komisioni Evropian ka nisur një konsultim mbi Kodin e Praktikës për ofruesit e modeleve të UA me qëllime të përgjithshme (GPAI), i cili synon të mbikëqyrë zbatimin dhe zbatimin e Aktit të UA.
Një zëdhënës i Komisionit Evropian tha për Euronews Next se Komisioni e mirëpriti studimin dhe platformën e vlerësimit të modelit të AI “si një hap i parë në përkthimin e Aktit të AI të BE-së në kërkesa teknike, duke ndihmuar ofruesit e modeleve të AI të zbatojnë Aktin e AI”.
“Komisioni ka nisur punën me palët e interesuara për Kodin e Praktikës, i cili do të detajojë rregullat e Aktit të AI për ofruesit e modeleve të AI me qëllime të përgjithshme dhe modeleve të AI me qëllime të përgjithshme me rreziqe sistematike. Ofruesit duhet të jenë në gjendje të mbështeten në Kodin e Praktikës për të demonstruar pajtueshmëri,” shtoi zëdhënësi.
Përveç fillimit të interpretimit të parë teknik të Aktit të AI, ekziston gjithashtu një kornizë falas me burim të hapur që mund të përdoret për të vlerësuar LLM-të kundrejt kërkesave të BE-së.
“Ne ftojmë studiuesit, zhvilluesit dhe rregullatorët e AI që të bashkohen me ne në avancimin e këtij projekti në zhvillim,” tha Martin Vechev, një profesor në ETH Cyrih dhe themelues dhe drejtor shkencor i INSAIT në Sofje, Bullgari./euronews/