Due Modelli perl’AI Agenziale

Mentre l’Intelligenza Artificiale avanza, emergono due modelli di agenti possibili: AI come consulente o AI autonoma che prende decisioni al nostro posto

0
47
Agentic-AI

Boston – Gli “agenti” dell’AI stanno arrivando, che siamo pronti o meno. Anche se c’è molta incertezza su quando i modelli di AI saranno in grado di interagire autonomamente con le piattaforme digitali, con altri strumenti di AI e persino con gli esseri umani, ci sono pochi dubbi sul fatto che questo sviluppo sarà trasformativo, nel bene e nel male. Tuttavia, nonostante tutti i commenti (e il clamore) intorno all’AI agenziale, molte grandi domande rimangono irrisolte, la più importante delle quali è quale tipo di agente AI l’industria tecnologica sta cercando di sviluppare.

Modelli diversi avranno implicazioni molto diverse. Con un approccio di “AI come consulente”, gli agenti AI offrirebbero raccomandazioni calibrate individualmente ai decisori umani, lasciando sempre l’uomo al posto di guida. Con un modello di “AI autonoma”, invece, gli agenti prenderanno il volante per conto dell’uomo. Si tratta di una distinzione con implicazioni profonde e di vasta portata. Gli esseri umani prendono centinaia di decisioni ogni giorno, alcune delle quali hanno conseguenze importanti per la loro carriera, la loro vita o la loro felicità. Molte di queste decisioni si basano su informazioni imperfette o incomplete, determinate più che altro da emozioni, intuizioni, istinti o impulsi. Come disse David Hume, “la ragione è e dovrebbe essere solo schiava delle passioni”. Gli esseri umani possono prendere la maggior parte delle decisioni senza un ragionamento sistematico o senza prestare la dovuta attenzione a tutte le implicazioni, ma come Hume riconosceva con il verbo “dovrebbe” della sua affermazione, questo non è del tutto negativo. È ciò che ci rende umani. La passione riflette lo scopo e può anche giocare un ruolo chiave nel modo in cui affrontiamo un mondo complesso.

Con i consulenti AI che forniscono informazioni personalizzate, affidabili, rilevanti per il contesto e utili, molte decisioni importanti possono essere migliorate, ma le motivazioni umane rimarranno dominanti. Ma cosa c’è di così negativo nel fatto che AI autonome prendano decisioni per conto nostro? Non potrebbero migliorare ulteriormente il processo decisionale, risparmiare tempo e prevenire gli errori? Questa prospettiva presenta diversi problemi. In primo luogo, l’azione umana è fondamentale per l’apprendimento e la prosperità dell’uomo. L’atto stesso di prendere decisioni e contemplare i risultati – anche se gli input e i consigli provengono da agenti non umani – afferma il nostro senso di azione e di scopo. Gran parte di ciò che gli esseri umani fanno non riguarda il calcolo o la raccolta di input per decidere un corso d’azione ottimale; piuttosto, si tratta di scoperta – un’esperienza che diventerà sempre più rara se tutte le decisioni saranno delegate a un agente AI. Inoltre, se l’industria tecnologica si dedica principalmente ad agenti AI autonomi, la probabilità di automatizzare un maggior numero di lavori umani aumenterà notevolmente. Tuttavia, se l’AI diventerà principalmente un mezzo per accelerare l’automazione, ogni speranza di una prosperità ampiamente condivisa verrà meno.

Soprattutto, c’è una differenza fondamentale tra gli agenti AI che agiscono al posto degli esseri umani e gli esseri umani che agiscono per se stessi. Molti contesti in cui gli esseri umani interagiscono presentano elementi sia cooperativi che conflittuali. Si consideri il caso di un’azienda che fornisce un input a un’altra. Se questo input è sufficientemente prezioso per l’acquirente, uno scambio tra le due aziende è reciprocamente vantaggioso (e di solito va anche a beneficio della società).

Ma perché ci sia uno scambio, il prezzo del fattore di produzione deve essere determinato attraverso un processo intrinsecamente conflittuale. Più alto è il prezzo, maggiore sarà il vantaggio del venditore rispetto all’acquirente. L’esito di tale contrattazione è spesso determinato da una combinazione di norme (come quelle sull’equità), istituzioni (come i contratti che impongono costi se violati) e forze di mercato (come la possibilità per il venditore di vendere a qualcun altro). Ma immaginiamo che l’acquirente abbia la reputazione di essere completamente intransigente, rifiutando di accettare qualsiasi cosa che non sia il prezzo più basso possibile. Se non ci sono altri acquirenti, il venditore potrebbe essere costretto ad accettare l’offerta al ribasso.

Fortunatamente, nelle transazioni quotidiane, tali posizioni intransigenti sono rare, in parte perché è conveniente non avere una cattiva reputazione e, soprattutto, perché la maggior parte degli esseri umani non ha né il coraggio né l’aspirazione di agire in modo così aggressivo. Ma ora immaginiamo che l’acquirente disponga di un’intelligenza artificiale autonoma che non si preoccupa dei convenevoli umani e possieda nervi saldi non umani. L’AI può essere addestrata ad adottare sempre questa posizione intransigente e la controparte non avrà alcuna speranza di convincerla a raggiungere un risultato più vantaggioso per entrambe le parti. Al contrario, in un mondo di AI come consulente, il modello potrebbe ancora raccomandare una posizione intransigente, ma sarebbe l’uomo a decidere in ultima istanza se seguire quella strada.

Nel breve termine, quindi, le AI agenziali autonome potrebbero inaugurare un mondo più diseguale, in cui solo alcune aziende o individui hanno accesso a modelli di AI altamente capaci e credibili. Ma anche se alla fine tutti acquisissero gli stessi strumenti, la situazione non sarebbe migliore. La nostra intera società sarebbe soggetta a giochi di “guerra di logoramento”, in cui gli agenti AI spingono ogni situazione conflittuale sull’orlo della rottura.

Questi scontri sono intrinsecamente rischiosi. Come in un “game of chicken” (quando due auto accelerano l’una verso l’altra per vedere chi sterza per primo), è sempre possibile che nessuna delle due parti ceda. Quando ciò accade, entrambi i conducenti “vincono” – ed entrambi muoiono. Un’intelligenza artificiale addestrata a vincere alla “chicken” non devierà mai. Se da un lato l’AI potrebbe essere un buon consigliere per gli esseri umani – fornendoci informazioni utili, affidabili e pertinenti in tempo reale – dall’altro un mondo di agenti AI autonomi rischia di creare molti nuovi problemi, erodendo molti dei vantaggi che la tecnologia avrebbe potuto offrire.


Le parole chiave

Agenti AI


Nel nuovo contesto dell’Intelligenza Artificiale (Artificial Intelligence, AI) gli agenti perdono le loro connotazioni umane. Gli AI agents (agenti d’intelligenza artificiale) sono definiti come quei sistemi o programmi software capaci di eseguire in modo autonomo compiti specifici per conto di un utente o di un sistema. Come gli umani (quasi) possono pianificare, prendere decisioni, apprendere dall’esperienza, interagire con l’ambiente e utilizzare vari strumenti per raggiungere obiettivi complessi senza intervento umano diretto. Questi agenti si basano spesso su modelli linguistici di grandi dimensioni (LLM) e tecniche di AI avanzata, come il machine learning, l’elaborazione del linguaggio naturale e la capacità multimodale per comprendere e rispondere agli input. Gli AI agents possono svolgere funzioni diverse, come assistenti virtuali, gestori di processi aziendali, specialisti di customer service, e si organizzano anche in gruppi gerarchici per dividere e coordinare compiti complessi. Sono progettati per migliorare nel tempo attraverso l’apprendimento, diventando strategici piuttosto che semplici esecutori di comandi. In sintesi, un AI agent è un assistente digitale autonomo che interagisce, ragiona e agisce per raggiungere obiettivi stabiliti dall’utente, liberando quest’ultimo dalle attività ripetitive o complesse di microgestione.

Iscriviti alla newsletter: https://www.bebankers.it/newsletter/