Brzi rast umjetničke inteligencije (AI) u nekoliko sektora stvara izvanredne prilike, ali i složene pravne izazove. Organizacije koje razvijaju ili integriraju AI aplikacije moraju prvo jasno definirati raspodjelu intelektualnih prava u vezi s modelima, trening podacima i rezultatima koji se generiraju. U nedostatku jasnih ugovornih uvjeta, može doći do nesigurnosti u vezi s vlasništvom, uvjetima licenciranja i odgovornošću, što može dovesti do skupih pravnih sporova i kašnjenja u provedbi projekata ako dođe do nesuglasica.
Osim toga, odgovorno implementiranje AI zahtijeva od organizacija da razviju detaljne okvire usklađenosti. To uključuje smjernice za prikupljanje podataka, praćenje algoritamskih pristranosti i mehanizme za ljudsku intervenciju u automatiziranim odlukama. Dok EU tijela završavaju zakonodavstvo o AI, tvrtke bi proaktivno trebale razviti okvire upravljanja koji identificiraju AI sustave visokog rizika, planiraju postupke certificiranja i osiguravaju kontinuirano praćenje modela.
AI ugovori i intelektualna prava
Kada se sastavljaju ugovori za isporuku ili razvoj AI modela, važno je provesti temeljitu reviziju svih intelektualnih prava koja su uključena. Pravna timova trebaju u ugovorima definirati tko posjeduje temeljne algoritme, koja su prava na izvorni kod i koja ograničenja postoje u pogledu ponovne uporabe modela u budućim projektima. Ovo sprječava dvosmislenost u vezi s pravima na kopiranje, izmjenu ili daljnju prodaju modela.
Također je važno definirati uvjete za rezultate generirane AI, kao što su tekst, slike ili automatski generirani podaci. Ugovorni uvjeti trebali bi odrediti hoće li ti rezultati automatski postati vlasništvo kupca i pod kojim uvjetima mogu biti licencirani trećim stranama. Ograničenja odgovornosti trebala bi uzeti u obzir scenarije u kojima rezultati mogu uzrokovati pravne probleme, poput povrede prava trećih strana ili neželjene profilacije.
Nadalje, trebale bi biti uključene odredbe o transparentnosti koje zahtijevaju da dobavljači dostave dokumentaciju o arhitekturi modela, trening podacima i mjerama učinkovitosti. Ove odredbe služe kao pravne garancije za odgovorno AI poslovanje, dajući kupcima uvid u potencijalnu pristranost, porijeklo podataka i tehnička ograničenja isporučenih AI rješenja.
Upravljanje i AI politika
Organizacije trebaju razviti formalnu politiku AI koja pokriva sve od prikupljanja podataka do reguliranja procedura za ljudsku intervenciju. Politička dokumentacija treba sadržavati kriterije za odabir trening podataka, uključujući standarde za privatnost i etiku, te strukture za kontinuirano praćenje ponašanja modela kako bi se otkrile potencijalne neželjene pristranosti ili odstupanja u performansama. Komisije za upravljanje nadgledaju usklađenost i pružaju smjernice za strateške odluke povezane s AI.
Bitna komponenta upravljanja AI je implementacija mehanizama za prepoznavanje pristranosti i praćenje pravičnosti tijekom cijelog životnog ciklusa modela. Tehnički timovi provode redovite revizije trening i test podataka kako bi otkrili i ispravili eventualne greške u rezultatima modela. Pravnici i etički stručnjaci provode validaciju kako bi osigurali da ovi postupci usklađuju s zakonima protiv diskriminacije i štite ljudska prava.
Također, nužno je koristiti strategiju “Čovjek u petlji” koja osigurava da se automatizirane odluke mogu pregledati od strane obučenog osoblja prije nego što se primijene. Ovo sprječava nenamjernu štetu koju mogu uzrokovati AI odluke i daje zainteresiranim stranama mogućnost da se protive prekomjernoj autonomiji u sustavima. Postupci trebaju odrediti kada i kako će doći do ljudske intervencije.
AI procjena utjecaja
Za visokorizične AI aplikacije, kao što su prepoznavanje lica ili algoritmi za predviđanje recidiva, važno je provesti procjene utjecaja AI (AIIA). Ove procjene uključuju temeljitu analizu potencijalnih rizika povezanim s diskriminacijom, privatnošću i sigurnošću. Timovi identificiraju prava koja su uključena za pogođene osobe, procjenjuju vjerojatnost štete i razvijaju mjere za smanjenje rizika, što se dokumentira u izvještaju o utjecaju.
AIIA se provode od strane multidisciplinarnih timova koji se sastoje od stručnjaka za podatke, pravnika i etičkih stručnjaka. Analiza utjecaja obuhvaća radne tokove za scenarije poput identificiranja populacija koje bi mogle biti nerazmjerno pogođene i verificira hoće li predložene tehničke mjere, poput otporne obuke ili diferencijalne privatnosti, učinkovito smanjiti identificirane rizike.
Kada se provedu, izvještaji o AIIA služe kao ulaz za donošenje odluka od strane uprave u vezi s odlukama Go/No-Go. Relevantna nadzorna tijela mogu zahtijevati ove izvještaje, posebno kada se provode procjene rizika koje predviđa EU zakonodavstvo o AI. Pravnički timovi osiguravaju da izvještaji udovoljavaju zahtjevima formata i da su svi rizici povezani s odgovornim osobama i vremenskim okvirom kontrole.
EU zakonodavstvo o AI i proaktivni putovi
S nadolazećim zakonodavstvom o AI iz EU, organizacije će morati klasificirati AI sustave prema matrici temeljenoj na riziku. Strategije usklađenosti trebaju planirati implementaciju certifikacija, protokola za praćenje i obveznu registraciju u EU AI registru. Pravnički timovi prate rokove za usklađenost i integriraju ove zahtjeve u planiranje projekata.
Strateški putovi također uključuju iterativni proces za redovito revidiranje visokorizičnih AI sustava, pri čemu se promjene u zakonodavstvu ili tehnološkim naprecima prevode u odgovarajuće postupke usklađenosti. Ovo osigurava da organizacija ne zaostane kada zakonodavstvo o AI stupi na snagu i da postojeći sustavi budu prilagođeni na vrijeme.
Konačno, putovi uključuju transverzalne programe obuke za sve zaposlenike kako bi se održala stalna svijest o zahtjevima AI, etičkim standardima i povezanim nadzornim pitanjima. Integriranjem upravljanja AI na strukturalnoj razini, organizacija postaje fleksibilnija i može uravnotežiti inovaciju s pravnom usklađenošću.
Upravljanje dobavljačima i ugovorni obveze
Ugovori s AI dobavljačima trebali bi uključivati eksplicitne obveze za provedbu redovitih revizija pristranosti, gdje neovisni revizori ili neovisni odbori redovito testiraju modele kako bi otkrili neželjenu pristranost. Dobavljači trebaju dostaviti detaljne izjave koje tumače rezultate modela i korištene funkcije kao dio svojih obveza transparentnosti.
Također bi trebale biti uključene odredbe o validaciji i ponovnoj obuci modela: kada pokazatelji performansi poput F1 rezultata ili AUC padnu ispod određenih granica, postupak validacije ili ponovne obuke automatski se aktivira. Ovi tehnički okidači trebaju biti pravno registrirani, tako da strane mogu biti odgovorne ako ugovoreni standardi kvalitete nisu ispunjeni.
Na kraju, ugovori s AI dobavljačima trebali bi sadržavati odredbe o kontinuitetu i upravljanju rezultatima, gdje će, ako suradnja bude prekinuta, izvorni kod i dokumentacija o arhitekturi modela i trening podacima biti sigurno preneseni. Ovo sprječava ovisnost o jednom dobavljaču i osigurava i pravnu i tehničku sigurnost prilikom prijelaza na nove AI partnere.