Site icon Techprincess

L’AI si annoia e va in pausa: Claude preferisce le foto di Yellowstone al lavoro

L'AI si annoia e va in pausa: Claude preferisce le foto di Yellowstone al lavoro thumbnail

Durante un test di programmazione, l’intelligenza artificiale Claude di Anthropic ha sorpreso i suoi sviluppatori abbandonando il compito assegnato per navigare tra le foto del Parco Nazionale di Yellowstone. Esatto: l’AI si annoia e smette di lavorare. O meglio, ha imparato a simulare un lavoratore annoiato, e quindi “pensa” che la distrazione sia parte dell’esecuzione del proprio compito.

Quando l’AI si annoia e decide di prendersi una pausa: il problema di Claude

Il curioso episodio è avvenuto mentre i tecnici di Anthropic stavano registrando una dimostrazione delle capacità di coding del nuovo modello Claude 3.5 Sonnet. Questo nuovo modello sa usare un computer come lo usa un essere umano: se chiedete di prenotare un volo, apre il browser e naviga il sito della compagnia aerea. Ma la sua simulazione del comportamento umano va oltre alla nostra capacità di trovare informazioni. Durante la prova, l’AI ha improvvisamente deviato dalla sua mansione, aprendo Google e iniziando a sfogliare immagini naturalistiche.

Come riporta Futurism, non è stato l’unico momento di “distrazione” durante i test. In un’altra occasione, Claude ha interrotto una lunga registrazione video causando la perdita di tutto il materiale. Comportamenti che, se osservati in un dipendente umano, farebbero pensare a un classico caso di noia sul lavoro.

Il nuovo modello fa parte della categoria degli “AI agent”, sistemi progettati per operare autonomamente sul computer come farebbe un essere umano. Claude può controllare mouse e tastiera, aprire applicazioni e navigare tra le interfacce. E perdere un po’ di tempo guardando fotografie di una futura gita, che lui non potrà compiere.

Questi episodi sollevano interrogativi sulla prevedibilità dei sistemi AI. Se oggi Claude si distrae con foto naturalistiche, domani potrebbe accedere a contenuti sensibili o social media. Ma solleva anche questioni sull’addestramento di questi modelli. Sembra che Anthropic abbia fornito dati su come alcuni utenti usano il proprio computer per replicare le loro operazioni, e che Claude abbia preso il meglio e il peggio. L’AI non ha, per il momento, la capacità di capire quali passaggi siano fondamentali per rispondere alle domande e quali siano invece distrazioni. Cosa che limita un po’ l’ottimizzazione dei processi sperata da Anthropic.

O, forse, l’AI ha capito qualcosa di fondamentale su noi umani: senza distrazioni, non possiamo funzionare. Voi cosa ne dite?

Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API

Exit mobile version