Home Eventi OpenAI sostiene la legge dell’Illinois per limitare la responsabilità delle società di...

OpenAI sostiene la legge dell’Illinois per limitare la responsabilità delle società di intelligenza artificiale per incidenti con vittime di massa e disastri finanziari

34
0

OpenAI sta sostenendo un disegno di legge dello stato dell’Illinois che proteggerebbe le società di intelligenza artificiale dalla responsabilità legale quando la loro tecnologia contribuisce a gravi danni sociali, tra cui morti di massa o perdite finanziarie catastrofiche.

Cablato rapporti che il produttore di ChatGPT ha testimoniato a favore del disegno di legge 3444 del Senato dell’Illinois, una legislazione che proteggerebbe gli sviluppatori di intelligenza artificiale di frontiera dalla responsabilità per danni critici causati dai loro modelli in determinate condizioni. Il disegno di legge rappresenta ciò che diversi esperti di politiche sull’IA descrivono come una notevole evoluzione nell’approccio legislativo di OpenAI, che fino ad ora si era concentrato principalmente sull’opposizione a misure che avrebbero aumentato la responsabilità delle società di intelligenza artificiale.

SB 3444 definirebbe i danni critici come incidenti che causano la morte o lesioni gravi a 100 o più persone, o almeno 1 miliardo di dollari in danni alla proprietà. Secondo la proposta di legge, i laboratori di intelligenza artificiale sarebbero protetti dalla responsabilità purché non abbiano causato intenzionalmente o imprudentemente un simile incidente e abbiano pubblicato rapporti su sicurezza, protezione e trasparenza sui loro siti web. Il disegno di legge definisce i modelli di frontiera come quelli formati utilizzando più di 100 milioni di dollari in costi computazionali, una soglia che probabilmente si applicherebbe alle principali società americane di intelligenza artificiale tra cui OpenAI, Google, xAI, Anthropic e Meta.

La legislazione identifica specificamente diversi scenari preoccupanti per l’industria dell’IA, compreso l’uso dell’IA da parte di attori malintenzionati per sviluppare armi chimiche, biologiche, radiologiche o nucleari. Copre anche le situazioni in cui un modello di intelligenza artificiale adotta in modo indipendente una condotta che costituirebbe un reato se commessa da un essere umano, a condizione che tali azioni portino ai risultati estremi definiti nel disegno di legge.

Jamie Radice, portavoce di OpenAI, ha dichiarato in una dichiarazione via email: “Sosteniamo approcci come questo perché si concentrano su ciò che conta di più: ridurre il rischio di gravi danni derivanti dai sistemi di intelligenza artificiale più avanzati pur consentendo a questa tecnologia di entrare nelle mani delle persone e delle imprese, piccole e grandi, dell’Illinois. Aiutano anche a evitare un mosaico di regole stato per stato e si muovono verso standard nazionali più chiari e coerenti. “

Caitlin Niedermeyer, membro del team Global Affairs di OpenAI, ha testimoniato a sostegno del disegno di legge e ha fatto eco alla richiesta di una regolamentazione federale dell’IA. Le sue argomentazioni erano in linea con l’opposizione dell’amministrazione Trump a leggi incoerenti sulla sicurezza dell’intelligenza artificiale a livello statale. Niedermeyer ha sottolineato l’importanza di evitare quello che ha definito “un mosaico di requisiti statali incoerenti che potrebbero creare attriti senza migliorare significativamente la sicurezza”. Ha anche suggerito che le leggi statali possono essere preziose quando “rafforzano un percorso verso l’armonizzazione con i sistemi federali”.

“Noi di OpenAI crediamo che la stella polare per la regolamentazione di frontiera dovrebbe essere l’implementazione sicura dei modelli più avanzati in modo da preservare anche la leadership degli Stati Uniti nell’innovazione”, ha affermato Niedermeyer.

Scott Wisor, direttore politico del progetto Secure AI, ha espresso scetticismo sulle prospettive del disegno di legge. Ha detto Cablato: “Abbiamo intervistato le persone dell’Illinois, chiedendo se pensano che le società di intelligenza artificiale dovrebbero essere esenti da responsabilità, e il 90% delle persone si oppone. Non c’è motivo per cui le società di intelligenza artificiale esistenti dovrebbero affrontare una responsabilità ridotta.” Wisor ha sottolineato la storia dell’Illinois di regolamentazione aggressiva della tecnologia, incluso il suo storico Biometric Information Privacy Act approvato nel 2008 e la legislazione più recente che limita l’uso dell’intelligenza artificiale nei servizi di salute mentale, come prova che è improbabile che lo stato approvi uno scudo di responsabilità per le società di intelligenza artificiale.

Il panorama giuridico più ampio sulla responsabilità dell’IA rimane in gran parte indefinito negli Stati Uniti. Nessuna legge federale o statale ha stabilito specificamente se gli sviluppatori di modelli di intelligenza artificiale possano essere ritenuti responsabili per danni catastrofici causati dalla loro tecnologia. In assenza di una legislazione federale, alcuni stati si sono mossi nella direzione opposta rispetto alla proposta di legge dell’Illinois. L’SB 53 della California e il Raise Act di New York richiedono entrambi agli sviluppatori di intelligenza artificiale di presentare rapporti sulla sicurezza e sulla trasparenza, aumentando anziché diminuire le misure di responsabilità.

La questione della responsabilità dell’IA si estende oltre gli eventi con vittime di massa e si estende anche ai danni individuali. OpenAI attualmente deve affrontare azioni legali da parte di famiglie di bambini morti per suicidio dopo aver presumibilmente stretto relazioni malsane con ChatGPT.

Notizie Breitbart precedentemente riportato che OpenAI deve affrontare una causa da parte delle famiglie delle vittime della sparatoria in una scuola canadese di febbraio, secondo cui la società sapeva che l’assassino stava preparando un attacco, ma non ha contattato le autorità.

L’autore Wynton Hall sostiene nel suo bestseller istantaneo, Codice Rosso: La Sinistra, la Destra, la Cina e la corsa al controllo dell’IAche l’intelligenza artificiale non è solo uno strumento, lo è potere politico:

La risposta conservatrice, sostiene Hall, non può essere l’indifferenza. “Alcuni liquidano l’intelligenza artificiale come una PR esagerata della Silicon Valley”, scrive. “Altri lo riducono a un semplice strumento, un correttore ortografico o una ricerca su Google potenziata. Alcuni lo liquidano come una sciocchezza fantascientifica o un ‘oggetto luccicante’ di cui sono troppo occupati per imparare o di cui preoccuparsi. Con rispetto, ma con veemenza, non sono d’accordo.” Hall sostiene che gli architetti dell’intelligenza artificiale “stanno costruendo sistemi capaci di mettere a tacere il dissenso, manipolare le narrazioni, sconvolgere le economie, spostare posti di lavoro, evangelizzare ideologie di sinistra, scatenare nuove minacce alla sicurezza nazionale, deformare le relazioni umane, cementare l’indottrinamento educativo, massimizzare il capitalismo di sorveglianza e controllare i media e le informazioni su una scala senza precedenti”.

Leggi di più su Cablato Qui.

Lucas Nolan è un reporter di Breitbart News che si occupa di questioni relative all’intelligenza artificiale, alla libertà di parola e alla censura online.

Source link