Folosirea AI în companie: riscuri juridice reale în 2026
- Cristina Tudor
- 16 feb.
- 5 min de citit

Inteligența artificială a ieșit de multă vreme din zona de experiment. În 2026, inteligența artificială este deja integrată în procesele esențiale ale companiilor de la resurse umane, marketing, vânzări la suport pentru clienți, analiză de date și chiar în procesul de luare a deciziilor.
Problema? Multe companii folosesc AI fără să înțeleagă riscurile juridice reale pe care le generează. Aceste riscuri nu sunt doar ipotetice – ele pot conduce la amenzi, litigii, răspundere contractuală sau chiar răspunderea administratorilor.
Acest articol își propune să trateze:
care sunt riscurile legale asociate cu utilizarea AI în cadrul unei companii;
cine este responsabil atunci când AI-ul face o greșeală;
de ce politica internă de utilizare AI nu mai este opțională în 2026.
1. De ce AI-ul nu mai este doar o problemă tehnică
În numeroase companii, AI-ul este considerat un instrument neutru, fiind perceput "doar un software". Din punct de vedere juridic, această perspectivă este eronată.
AI-ul influențează:
decizii de angajare sau concediere;
conținut contractual și comercial;
comunicarea cu clienții;
prelucrarea datelor cu caracter personal;
strategii de business.
Orice decizie luată automatizat sau cu ajutorul inteligenței artificiale poate avea consecințe juridice. Responsabilitatea nu este eliminată doar pentru că „așa a hotărât algoritmul”.
2. Ce riscuri juridice apar pentru companii în 2026
a) Răspundere pentru decizii greșite
Dacă AI-ul generează o decizie eronată (ex: refuzarea unui client după efectuare verificărilor AML, concedierea unui angajat, clasificare incorectă a unui partener), compania rămâne în continuare responsabilă de consecințele deciziei adoptate.
b) Încălcarea legislației privind protecția datelor
Cele mai multe soluții de inteligență artificială procesează cantități mari de date, inclusiv date personale sau sensibile.
Printre cele mai comune riscuri se numără:
utilizarea datelor fără temei legal, conform Regulamentului GDPR 2016/679;
lipsa informării persoanelor vizate;
transferuri neautorizate în afara UE;
absența măsurilor de securitate.
În astfel de cazuri, amenzile nu sunt teoretice și pot avea un impact semnificativ asupra bugetului companiei.
c) Risc contractual și comercial
AI-ul începe să fie folosit din ce în ce mai des pentru:
redactarea contractelor de orice tip: de prestări servicii/livrare de bunuri, contracte de muncă etc.;
elaborarea ofertelor comerciale;
generarea de răspunsuri automate către clienți.
În situația în care AI-ul:
generează clauze dezechilibrate, contrare intereselor companiei;
oferă informații greșite;
compania va fi cea care va avea de suferit în relația cu clienții și partenerii contractuali.
d) Lipsa controlului intern
Una dintre cele mai mari vulnerabilități în 2026 este dată de faptul că angajații folosesc AI fără reguli clare.
Exemple reale:
upload de date confidențiale în platforme AI;
folosirea AI pentru decizii sensibile fără validare umană;
generarea de documente juridice fără o verificare prealabilă.
Cine este responsabil dacă AI-ul face o greșeală?
Răspunsul scurt: răspunderea în aceste situații depinde foarte mult de următoarele aspecte:
a) Compania
Compania poate fi responsabilă:
față de clienți;
față de parteneri contractuali;
față de autorități.
Chiar dacă soluția automatizată care are la bază AI-ul este furnizată de un terț, decizia de utilizare, precum și modul de utilizare, este responsabilitatea companiei, în funcție de cele prevăzute expres în acest sens în contractul încheiat cu furnizorul.
b) Angajatul
Angajatul poate răspunde disciplinar sau patrimonial doar în următoarele condiții:
a încălcat proceduri interne clare, prevederile legale, regulamentul intern, contractul individual de muncă sau dispozițiile date de superiorii ierarhici;
a acționat cu vinovăție.
Astfel, conform Codului Muncii, salariații răspund patrimonial, în temeiul normelor și principiilor răspunderii civile contractuale, pentru pagubele materiale produse angajatorului din vina și în legătură cu munca lor.
Abaterea disciplinară este o faptă în legătură cu munca și care constă într-o acțiune sau inacțiune săvârșită cu vinovăție de către salariat, prin care acesta a încălcat normele legale, regulamentul intern, contractul individual de muncă sau contractul colectiv de muncă aplicabil, ordinele și dispozițiile legale ale conducătorilor ierarhici.
Răspunderea disciplinară este condiționată de efectuarea unei cercetări disciplinare prealabile.
c) Furnizorul de AI
Furnizorul poate răspunde doar în limitele contractului încheiat cu acesta
Dacă:
răspunderea furnizorului este limitată la un anumit cuantum;
lipsesc clauzele de garanție și cele prin care acesta își asumă răspunderea;
riscul este transferat aproape complet către compania care utilizează soluțiile de automatizare.
Exemple de decizii automatizate: – Un număr tot mai mare de companii începe să utilizeze inteligența artificială pentru profilare și luarea de decizii automatizate (de exemplu, filtrarea evaluări interne de risc).
Conform art. 22 din Regulamentul GDPR 2016/679 sunt interzise deciziile bazate exclusiv pe prelucrări automatizate care produc efecte juridice sau semnificative asupra persoanelor, în absența garanțiilor. Aceste garanții pot fi reprezentate de consimțământul expres al persoanelor vizate, însoțită de dreptul acesteia la intervenție umană în procesul de automatizare.
Regulamentul (UE) 2024/1689 – primul cadru legal armonizat privind inteligența artificială în UE
Un element esențial pentru orice companie care folosește sau implementează inteligența artificială este Regulamentul (UE) 2024/1689 al Parlamentului European și al Consiliului din 13 iunie 2024, cunoscut și ca Regulamentul privind inteligența artificială (AI Act).
Acesta instituie reguli armonizate în Uniunea Europeană pentru dezvoltarea, comercializarea și utilizarea sistemelor de inteligență artificială și reprezintă primul cadru legal cuprinzător de acest tip la nivel mondial, aplicabil direct în statele membre, fără a necesita transpunerea în legislația națională.
Regulamentul adoptă o abordare bazată pe nivelul de risc al sistemelor AI, de la cele cu risc minim până la cele cu risc foarte ridicat, impunând cerințe stricte pentru utilizarea și comercializarea sistemelor AI considerate high-risk.
Scopul acestuia este să asigure soluții de încredere, protejând sănătatea, siguranța, drepturile fundamentale și libertățile persoanelor, precum și funcționarea corectă a pieței interne.
De exemplu, furnizorii și utilizatorii de sisteme AI vor trebui să respecte cerințe de transparență, testare riguroasă și supraveghere umană acolo unde este necesar.
Pentru companii, aceasta înseamnă nu doar conformare tehnică, ci și adaptarea politicilor interne și a proceselor de guvernanță, pentru a respecta noile standarde și a gestiona răspunderea juridică asociată cu deciziile automatizate sau asistate de AI.
4. Politica internă de utilizare AI: moft sau necesitate legală?
În 2026, politica internă de utilizare AI nu mai este un „nice to have”.
Acesta este un instrument fundamental de:
management al riscului juridic;
protecție a companiei în relația cu clienții și partenerii contractuali;
clarificare a responsabilităților interne și a răspunderii.
Ce ar trebui să conțină o politică de utilizare AI
O politică eficientă ar trebui să țină cont de prevederile Regulamentului (UE) 2024/1689, precum și de cele ale Regulamentului GDPR 2016/679 și să conțină, printre altele:
ce tipuri de soluții AI pot fi folosite, precum și dacă acestea sunt conforme cu prevederile Regulamentului (UE) 2024/1689;
în ce scopuri exclusive pot fi folosite soluțiile respective;
ce categorii de date pot fi introduse în AI și în ce măsură prevederile Regulamentului GDPR sunt respectate;
ce decizii nu pot fi luate exclusiv în baza soluției de automatizare;
obligația de supraveghere și verificare umană;
sancțiuni pentru nerespectare.
În anumite situații, utilizarea necontrolată a AI poate atrage:
răspunderea societății;
prejudicii de imagine și financiare.
5. Concluzie: AI-ul aduce eficiență, dar și multă responsabilitate
Inteligența artificială reprezintă un avantaj competitiv semnificativ în 2026. Cu toate acestea, fără o abordare juridică adecvată, aceasta poate deveni rapid o sursă de dificultăți.
O politică internă de utilizare AI nu mai este opțională în 2026 – iar dacă aveți nevoie de un cadru juridic clar și personalizat pentru compania voastră, vă pot ajuta să îl construiți corect.
Solicită suport pentru pregătirea Politicii de utilizare AI
sau





Comentarii