Home » Attualità » Esteri » Boom di download per Claude Sonnet e fuga da ChatGPT, lo scontro con il Pentagono sta giovando ad Anthropic

Boom di download per Claude Sonnet e fuga da ChatGPT, lo scontro con il Pentagono sta giovando ad Anthropic

Boom di download per Claude Sonnet e fuga da ChatGPT, lo scontro con il Pentagono sta giovando ad Anthropic

Il Pentagono designa Anthropic “rischio per la catena di approvvigionamento”. Continua lo scontro sui limiti etici dell’utilizzo dell’IA per armi autonome e sorveglianza di massa. E intanto i consumatori abbandonano in massa ChatGPT

Sono giorni di profondi cambiamenti nel mondo dell’intelligenza artificiale americana, mentre lo scontro tra il Ceo di Anthropic, Dario Amodei, e il governo americano si acuisce.

I motivi della disputa, inizialmente circoscritta ai limiti etici dell’utilizzo del chatbot Claude Sonnet da parte delle forze armate americane, ha però travalicato tali confini, e a rimetterci è stata anche OpenAI, proprietaria di ChatGPT. Ma procediamo con ordine.

Continua lo scontro Anthropic-Pentagono

Ieri il governo americano ha ufficializzato la definizione di Anthropic, proprietario del chatbot IA Claude Sonnet, come “rischio per la catena di approvvigionamento”. Decisione ufficializzata dopo il persistere del rifiuto di Amodei di far cadere i limiti imposti al Pentagono e fornire un pieno utilizzo del suo software di IA.

Tali limiti, ricordiamolo, riguardano l’utilizzo di Claude in sistemi di puntamento d’arma automatizzati e la sorveglianza di massa su territorio nazionale. Limiti che invece il Pentagono vuole vedere eliminati.

La definizione di “rischio per la catena di approvvigionamento”, nel concreto, impone a ogni azienda e appaltatore che lavora col Pentagono di certificare di non utilizzare i modelli di Anthropic nell’ambito dei propri contratti con la Difesa.

Si tratta di una misura storicamente riservata ad aziende straniere legate ad avversari come la Cina o la Russia, e la sua applicazione a un’impresa americana è del tutto senza precedenti.

Anthropic ha già annunciato battaglia legale, definendo la decisione “giuridicamente infondata” e avvertendo che stabilisce un “precedente pericoloso per qualsiasi azienda americana che negozi col governo”.

Il divieto riguarderebbe però solo l’utilizzo di Claude nell’ambito diretto dei contratti col Dipartimento della Guerra, e non le attività commerciali non correlate alla difesa.

Nuovi colloqui all’orizzonte

Nonostante la rottura, Amodei ha ripreso i contatti con Emil Michael, sottosegretario alla Difesa per la ricerca e l’ingegneria, riaprendo la possibilità di risolvere la disputa che ha tenuto col fiato sospeso la Silicon Valley.

Al centro dei negoziati ci sarebbe la formulazione contrattuale. Secondo un memo interno trapelato, il Pentagono avrebbe offerto di accettare i termini di Anthropic a patto di eliminare uno specifico riferimento all’”analisi di dati acquisiti in blocco”.

La via d’uscita più probabile sembra essere quella di garanzie scritte esplicite nel contratto, capaci di tutelare i principi di Anthropic senza che il Pentagono rinunci formalmente alla clausola “qualsiasi scopo lecito”.

Fuga da ChatGPT

OpenAI ha annunciato il proprio accordo col Pentagono poche ore dopo la designazione di Anthropic come rischio per la catena di approvvigionamento, decisione e tempistica che si sono rivelate un boomerang.

Parte considerevole dell’opinione pubblica americana ha letto la mossa come un opportunismo ai danni di chi stava resistendo per principi etici, e la reazione è stata piuttosto dura contro l’azienda proprietaria di ChatGPT.

Anthropic ha registrato oltre un milione di nuove iscrizioni al giorno, scalando per la prima volta le classifiche dell’App Store di Apple in più di venti Paesi, mentre ChatGPT ha subito un’impennata di disinstallazioni.

I numeri sono impressionanti, con le cancellazioni dell’app di OpenAI che hanno registrato un aumento del 295%, secondo i dati di Sensor Tower.

Graffiti di protesta sono comparsi sui marciapiedi fuori dalla sede di OpenAI a San Francisco, e persino alcuni ricercatori dell’azienda hanno preso le distanze pubblicamente dall’accordo.

Altman ha dovuto ammettere che l’intesa col Pentagono era stata affrettata e ha avviato una rinegoziazione dei termini, aggiungendo restrizioni esplicite, anche sui dati commercialmente acquistati, di fatto adottando le stesse garanzie che Anthropic aveva chiesto sin dall’inizio.

Un’inversione di rotta che suona come una tardiva ammissione di colpa e che è stata pagata a caro prezzo da OpenAI, mentre l’approccio più etico di Anthropic sembra indirettamente aver dato i sui frutti, con i download dell’app Claude che sono aumentati a dismisura.

© Riproduzione Riservata