Home Eventi Anthropic si oppone alla legge sulla responsabilità dell’Illinois sull’intelligenza artificiale sostenuta da...

Anthropic si oppone alla legge sulla responsabilità dell’Illinois sull’intelligenza artificiale sostenuta da OpenAI

34
0

Anthropic si è espressa pubblicamente contro una proposta di legge dell’Illinois sostenuta da OpenAI che proteggerebbe le società di intelligenza artificiale dalla responsabilità legale se i loro sistemi venissero utilizzati per infliggere danni su larga scala, come vittime di massa o danni alla proprietà superiori a 1 miliardo di dollari.

Cablato rapporti che la legislazione proposta, nota come SB 3444, sta creando un netto divario tra due delle più importanti società americane di intelligenza artificiale su come la tecnologia dovrebbe essere governata. Sebbene gli analisti politici ritengano che il disegno di legge abbia lunghe probabilità di approvazione, ha evidenziato crescenti tensioni politiche tra Anthropic e OpenAI poiché entrambe le organizzazioni espandono i loro sforzi di lobbying a livello nazionale.

Notizie Breitbart riportato all’inizio di questa settimana OpenAI si è espressa a favore del disegno di legge:

Jamie Radice, portavoce di OpenAI, ha dichiarato in una dichiarazione via email: “Sosteniamo approcci come questo perché si concentrano su ciò che conta di più: ridurre il rischio di gravi danni derivanti dai sistemi di intelligenza artificiale più avanzati pur consentendo a questa tecnologia di entrare nelle mani delle persone e delle imprese, piccole e grandi, dell’Illinois. Aiutano anche a evitare un mosaico di regole stato per stato e si muovono verso standard nazionali più chiari e coerenti. “

Caitlin Niedermeyer, membro del team Global Affairs di OpenAI, ha testimoniato a sostegno del disegno di legge e ha fatto eco alla richiesta di una regolamentazione federale dell’IA. Le sue argomentazioni erano in linea con l’opposizione dell’amministrazione Trump a leggi incoerenti sulla sicurezza dell’IA a livello statale. Niedermeyer ha sottolineato l’importanza di evitare quello che ha definito “un mosaico di requisiti statali incoerenti che potrebbero creare attriti senza migliorare significativamente la sicurezza”. Ha anche suggerito che le leggi statali possono essere preziose quando “rafforzano un percorso verso l’armonizzazione con i sistemi federali”.

Secondo fonti vicine alla questione, Anthropic ha attivamente esercitato pressioni sul senatore dello stato dell’Illinois Bill Cunningham, che ha sponsorizzato l’SB 3444, insieme ad altri legislatori statali, esortandoli a rivedere o respingere sostanzialmente il disegno di legge nella sua forma attuale. Lo ha confermato un portavoce di Anthropic Cablato che la società si oppone all’SB 3444 e ha osservato che le discussioni con Cunningham sull’utilizzo della misura come base per la futura legislazione sull’IA sono state produttive.

Cesar Fernandez, capo delle relazioni tra stati e governi locali degli Stati Uniti di Anthropic, ha dichiarato in una dichiarazione: “Siamo contrari a questo disegno di legge. Una buona legislazione sulla trasparenza deve garantire la sicurezza pubblica e la responsabilità per le aziende che sviluppano questa potente tecnologia, non fornire una carta per uscire di prigione contro ogni responsabilità. Sappiamo che il senatore Cunningham ha profondamente a cuore la sicurezza dell’intelligenza artificiale e non vediamo l’ora di lavorare con lui su cambiamenti che unirebbero invece la trasparenza con una reale responsabilità per mitigare i danni più gravi alla frontiera dell’IA. i sistemi potrebbero causare”.

Al centro della disputa tra OpenAI e Anthropic c’è la questione di chi ha la responsabilità legale se un sistema di intelligenza artificiale contribuisce a un evento catastrofico, una questione con cui i legislatori statunitensi hanno iniziato ad affrontare solo negli ultimi anni. Secondo SB 3444, un laboratorio di intelligenza artificiale eviterebbe la responsabilità se un attore malintenzionato utilizzasse il suo modello per causare gravi danni, a condizione che il laboratorio avesse creato un proprio quadro di sicurezza e lo avesse pubblicato online.

Alcuni esperti avvertono che la legislazione minerebbe le attuali protezioni legali progettate per scoraggiare la cattiva condotta aziendale. Thomas Woodside, cofondatore e consulente politico senior presso Secure AI Project, un’organizzazione no-profit coinvolta nella definizione della legislazione sulla sicurezza dell’IA in California e New York, ha dichiarato: “La responsabilità esiste già ai sensi del diritto comune e fornisce un potente incentivo alle aziende di intelligenza artificiale ad adottare misure ragionevoli per prevenire rischi prevedibili derivanti dai loro sistemi di intelligenza artificiale. L’SB 3444 farebbe il passo estremo di eliminare quasi la responsabilità per danni gravi. Ma è una cattiva idea indebolire la responsabilità, che nella maggior parte degli stati è la forma più significativa di responsabilità legale per le società di intelligenza artificiale. già in atto.”

La settimana scorsa, Anthropic ha testimoniato a sostegno di un disegno di legge separato dell’Illinois, SB 3261, che, se adottato, si classificherebbe tra le leggi sulla sicurezza dell’intelligenza artificiale più severe nel paese. Tale misura richiederebbe agli sviluppatori di intelligenza artificiale di frontiera, inclusi OpenAI e Anthropic, di produrre piani di sicurezza pubblica e di protezione dei bambini e di farli valutare da revisori indipendenti di terze parti.

L’autore Wynton Hall sostiene nel suo bestseller istantaneo, Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IAche l’intelligenza artificiale non è solo uno strumento, lo è potere politico:

La risposta conservatrice, sostiene Hall, non può essere l’indifferenza. “Alcuni liquidano l’intelligenza artificiale come una PR esagerata della Silicon Valley”, scrive. “Altri lo riducono a un semplice strumento, un correttore ortografico o una ricerca su Google potenziata. Alcuni lo liquidano come una sciocchezza fantascientifica o un ‘oggetto luccicante’ di cui sono troppo occupati per imparare o di cui preoccuparsi. Con rispetto, ma con veemenza, non sono d’accordo.” Hall sostiene che gli architetti dell’intelligenza artificiale “stanno costruendo sistemi capaci di mettere a tacere il dissenso, manipolare le narrazioni, sconvolgere le economie, spostare posti di lavoro, evangelizzare ideologie di sinistra, scatenare nuove minacce alla sicurezza nazionale, deformare le relazioni umane, cementare l’indottrinamento educativo, massimizzare il capitalismo di sorveglianza e controllare i media e le informazioni su una scala senza precedenti”.

Leggi di più su Cablato Qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni relative all’intelligenza artificiale, alla libertà di parola e alla censura online.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here