Inteligența artificială și conformitatea: Oportunitate sau provocare?

 

De când ChatGPT a luat cu asalt internetul, inteligența artificială a fost ferm implantată în viața noastră de zi cu zi. Robotul inteligent ne-a uimit cu abilități care ar fi fost considerate science-fiction cu puțin timp în urmă. Fie că răspunde la întrebări, scrie poezii, programează software sau rezolvă întrebări de examen, uneori se comportă chiar mai bine decât un om. Cu mult înainte de ChatGPT, foloseam deja numeroase alte aplicații de inteligență artificială, de cele mai multe ori fără să ne dăm seama. Adesea, acestea rulează în fundal. De exemplu, acest lucru se întâmplă atunci când Amazon ne sugerează produse similare, Spotify ne recomandă muzică sau Siri vorbește cu noi.

Cum sprijină IA conformitatea

Inteligența artificială își face simțită utilitatea ori de câte ori trebuie procesate și analizate volume mari de date. Ceea ce altfel ar dura ore și zile, algoritmii inteligenți fac în câteva secunde. Ca urmare, aceștia pot optimiza procesele și pot ușura povara asupra angajaților umani. Acest lucru aduce beneficii valoroase și în domeniul conformității și iată câteva exemple.

  • Sistemele de inteligență artificială pot ajuta la descoperirea mai rapidă a potențialelor încălcări ale conformității și a neregulilor. Algoritmii sunt capabili să identifice tipare cunoscute și să învețe singuri altele noi. Multe bănci folosesc deja această funcționalitate pentru detectarea fraudelor.
  • IA poate ajuta la analiza și evaluarea riscurilor de conformitate prin colectarea, evaluarea și corelarea datelor din numeroase surse interne și externe.
  • IA poate filtra documentele de conformitate, cum ar fi legislația și standardele, poate efectua o analiză, poate prioritiza cele mai relevante informații și poate economisi mult timp de lectură pentru managerii de conformitate.
  • Un chatbot cu inteligență artificială facilitează comunicarea politicilor de conformitate în cadrul companiei într-un mod ușor de înțeles. Acesta poate răspunde la întrebările angajaților și este disponibil în permanență.

Noi riscuri de conformitate prin IA

Cu toate beneficiile sale, inteligența artificială poate deveni, de asemenea, un risc de conformitate în sine. De exemplu, ce se întâmplă dacă un chatbot utilizat în procesul de recrutare discriminează candidații pe baza culorii pielii sau a sexului? De fapt, deciziile pe care le ia o IA depind întotdeauna de datele cu care este antrenată. Dacă acestea nu sunt suficient de diverse sau reflectă prejudecăți sociale, acest lucru se transferă asupra IA. De exemplu, un sistem de recrutare poate sugera cu precădere bărbați albi pentru un post de conducere, deoarece a învățat din datele istorice că astfel de candidați au fost preferați în trecut.

A te baza orbește pe IA este periculos, mai ales atunci când deciziile nu mai pot fi urmărite. Acesta este motivul pentru care se vorbește și de efectul de cutie neagră. Deoarece o IA învață în mod independent, aceasta se schimbă continuu. Dacă este alimentată cu date proaste sau chiar manipulată de hackeri, aceasta poate lua decizii greșite și poate funcționa defectuos. De aceea, este important să verificați periodic IA-ul.

Protecția datelor reprezintă o altă provocare majoră. Aceasta se datorează faptului că sistemele de IA procesează cantități uriașe de date, care pot conține, de asemenea, informații personale. Responsabilii de conformitate trebuie să se asigure că se respectă GDPR și există încă multe întrebări fără răspuns în această privință. De exemplu, datele pe care un utilizator le introduce într-o aplicație sunt adesea folosite pentru dezvoltarea ulterioară a IA, prin care acestea curg în modelul IA și se îmbină cu acesta. Care este temeiul juridic pentru acest proces? Și cum își pot exercita în continuare persoanele vizate dreptul de a șterge datele?

Legiuitorii UE abordează, de asemenea, riscurile pe care le poate prezenta IA. Aceștia discută în prezent Legea privind inteligența artificială, menită să reglementeze dezvoltarea și utilizarea inteligenței artificiale. La 14 iunie 2023, Parlamentul European și-a publicat poziția cu privire la acest proiect de lege. Acum, acesta se află în așa-numitul trilog și va fi finalizat în cadrul discuțiilor dintre Comisia Europeană, Consiliul de Miniștri al UE și Parlamentul UE. Noua lege ar putea intra în vigoare încă de la sfârșitul anului 2023. Legea privind IA distinge patru niveluri de risc, de la minim la inacceptabil. Aplicațiile care se încadrează în cel din urmă sunt interzise, în timp ce celelalte fac obiectul unor cerințe adaptate la categoria lor de risc. Neconformitatea poate duce la amenzi de până la 30 de milioane de euro sau șase la sută din totalul vânzărilor globale. Legea privind inteligența artificială afectează aproape toate companiile și este posibil ca, în urma acesteia, să facă valuri similare cu GDPR. Prin urmare, ofițerii de conformitate vor avea și mai multă muncă de făcut.

În timp ce inteligența artificială va deveni din ce în ce mai răspândită, nu este încă posibil să se prevadă unde va duce totul. Pentru sectorul de conformitate, tehnologia reprezintă atât o provocare, cât și o oportunitate. Pe de o parte, aceasta ajută la stăpânirea cerințelor în creștere. Pe de altă parte, însă, ea aduce noi riscuri. Managerii de conformitate nu mai pot evita să se ocupe de inteligența artificială și, odată cu iminenta lege UE privind IA, subiectul va deveni obligatoriu.

 

dMonitor is Process Lab’s AML platform that uses AI to accelerate the integration and monitoring of international sanctions, PEPs and Crime by providing the best KYC and AML data for financial service companies.
_____
Supported by a grant from Iceland, Liechtenstein and Norway through the EEA Grants 2014-2021, in the frame of the „SME Growth Programme Romania”.
Finanțat cu sprijinul granturilor acordate de Islanda, Liechtenstein și Norvegia prin mecanismul financiar SEE 2014-2021, în cadrul „Programului Dezvoltarea IMM-urilor din România”.