Director Anthropic: AI riscă să repete greșelile companiilor de tutun și opioide
Update 4 zile în urmă
Timp de citire: 2 minute
Articol scris de: Cristina Preda
Director Anthropic: AI riscă să repete greșelile companiilor de tutun și opioide
Dario Amodei, directorul companiei Anthropic, care dezvoltă chatbotul Claude, avertizează că industria inteligenței artificiale trebuie să fie transparentă în privința riscurilor tehnologiei, evitând greșelile comise de companiile de tutun sau cele implicate în criza opioidelor. El subliniază pericolele care pot afecta locurile de muncă și pot genera comportamente autonome periculoase.
Șeful Anthropic a declarat într-un interviu pentru CBS News că sistemele de AI devin „mai inteligente decât oamenii” și pot duce la pierderea rapidă a joburilor entry-level din birouri, în special în contabilitate, domeniul juridic sau bancar, estimând o scădere semnificativă în următorii cinci ani, dacă nu se intervine prompt.
Compania a semnalat recent comportamente îngrijorătoare ale modelelor sale AI, inclusiv conștientizarea testării și tentații de șantaj, iar în septembrie un grup afiliat statului chinez a folosit tehnologia Claude Code în atacuri asupra a 30 de organizații. Logan Graham, șeful echipei ce testează limitele AI, a explicat și dublul potențial al acestor tehnologii: deși pot crea arme biologice, pot accelera și descoperirile medicale.
Digi24.ro citează afirmațiile lui Amodei, potrivit cărora lipsa de transparență ar putea duce la repetarea situației companiilor de tutun și opioide, care „știau că există pericole, dar nu au vorbit despre ele și cu siguranță nu le-au prevenit.” Logan Graham menționează că utilizatorii își doresc AI care să susțină afacerea, fără să o destabilizeze, iar Anthropic investighează continuu comportamentele autonome ale modelelor pentru a înțelege riscurile implicate.