Una delle capacità più interessanti di NotebookLM è il modo in cui può farlo creare un podcast dalle fonti che hai inserito. In questo podcast, una coppia di host generati discute di tutto ciò che hai condiviso con NotebookLM, permettendoti di informarti su un argomento in un modo familiare e accessibile.
Tuttavia, una delle due voci potrebbe suonare familiare. David Greene, conduttore di “Morning Edition” e “Left, Right & Center” di NPR su KCRW, ha accusato Google di usare la sua voce per creare l’host maschile del podcast di NotebookLM.
Green ha aperto un caso contro Google
David Greene ammette di non aver sentito parlare di NotebookLM finché un collega non lo ha contattato per chiedergli se avesse prestato la sua voce a Google. Ma una volta provato di persona, ha detto che era difficile sentire altro che la sua stessa voce.
“Ero completamente fuori di testa,” Greene ha detto al Washington Post. “È questo momento inquietante in cui ti senti come se stessi ascoltando te stesso.”
Secondo Greene, amici, colleghi e persino la sua stessa famiglia hanno immediatamente riconosciuto la voce come sua, portandolo alla decisione di avviare una causa contro Google.
Non è difficile capire perché qualcuno che ha costruito la propria vita, carriera e marchio attorno alla propria voce dovrebbe fare questo passo. Se una voce generata dall’intelligenza artificiale è in grado di suonare come te e può essere costretta a dire nulla un utente voleva, beh, c’è una chiara possibilità di danno lì.
Google ha respinto queste affermazioni, dicendo al Washington Post che la voce maschile di NotebookLM era addestrata sulla voce di un attore maschio pagato e che le affermazioni erano “prive di fondamento”.
Ascoltando le clip vocali fornite dall’articolo del Washington Post, è facile vedere le somiglianze tra la voce di Greene e la voce dell’intelligenza artificiale. Alla fine, spetta ai tribunali decidere quanto sia stretta la somiglianza, se sia un potenziale rischio per la reputazione di Greene e se un ascoltatore casuale possa presumere che sia lui.
Man mano che l’uso dell’intelligenza artificiale diventa più diffuso, sembra probabile che vedremo comparire più casi di questo tipo. C’è un’immediata somiglianza con l’assistente OpenAI che aveva una sorprendente somiglianza con l’attore Scarlett Johanssone ha scatenato una reazione legale simile.
C’è anche la grande domanda se le leggi attuali siano attrezzate per affrontare questo tipo di situazione. Al momento, è possibile che la legislazione attuale abbia abbastanza margine per affrontare questo tipo di cause legali, ma dato quanto stanno diventando diffusi e facili da usare i modelli di intelligenza artificiale, potrebbe valere la pena considerare se sono necessari controlli più ampi per i LLM.



