Be Bankers

Inoltre, se l’industria tecnologica si dedica principalmente ad agenti AI autonomi, la pro- babilità di automatizzare unmaggior nume- ro di lavori umani aumenterà notevolmente. Tuttavia, se l’AI diventerà principalmente un mezzo per accelerare l’automazione, ogni speranza di una prosperità ampiamente condivisa verrà meno. Soprattutto, c’è una differenza fondamentale tra gli agenti AI che agiscono al posto degli esseri umani e gli esseri umani che agiscono per se stessi. Molti contesti in cui gli esseri umani interagiscono presentano elementi sia cooperativi che conflittuali. Si consideri il caso di un’azienda che fornisce un input a un’altra. Se questo input è sufficientemente prezioso per l’acquirente, uno scambio tra le due aziende è reciprocamente vantaggioso (e di solito va anche a beneficio della società). Ma perché ci sia uno scambio, il prezzo del fattore di produzione deve essere determi- nato attraverso un processo intrinsecamente conflittuale. Più alto è il prezzo, maggiore sarà il vantaggio del venditore rispetto all’acquirente. L’esito di tale contrattazione è spesso determinato da una combinazione di norme (come quelle sull’equità), istituzio- ni (come i contratti che impongono costi se violati) e forze dimercato (come la possibilità per il venditore di vendere a qualcun altro). Ma immaginiamo che l’acquirente abbia la reputazione di essere completamente intran- sigente, rifiutando di accettare qualsiasi cosa che non sia il prezzo più basso possibile. Se non ci sono altri acquirenti, il venditore po- trebbe essere costretto ad accettare l’offerta al ribasso. Fortunatamente, nelle transazioni quotidia- ne, tali posizioni intransigenti sono rare, in parte perché è conveniente non avere una cattiva reputazione e, soprattutto, perché la maggior parte degli esseri umani non ha né il coraggio né l’aspirazione di agire in modo così aggressivo. Ma ora immaginiamo che l’acquirente disponga di un’intelligenza ar- tificiale autonoma che non si preoccupa dei convenevoli umani e possiede nervi saldi non umani. L’AI può essere addestrata ad adot- tare sempre questa posizione intransigente e la controparte non avrà alcuna speranza di convincerla a raggiungere un risultato più vantaggioso per entrambe le parti. Al contra- rio, in un mondo di AI come consulente, il modello potrebbe ancora raccomandare una posizione intransigente, ma sarebbe l’uomo a decidere in ultima istanza se seguire quella strada. Nel breve termine, quindi, le AI agenziali au- tonome potrebbero inaugurare unmondopiù diseguale, in cui solo alcune aziende o indivi- dui hanno accesso a modelli di AI altamente capaci e credibili. Ma anche se alla fine tutti acquisissero gli stessi strumenti, la situazione non sarebbemigliore. La nostra intera società sarebbe soggetta a giochi di “guerra di logo- ramento” in cui gli agenti AI spingono ogni situazione conflittuale sull’orlo della rottura. Questi scontri sono intrinsecamente rischio- si. Come in un “game of chicken” (quando due auto accelerano l’una verso l’altra per ve- dere chi sterza per primo), è sempre possibile che nessuna delle due parti ceda. Quando ciò accade, entrambi i conducenti “vincono” – ed entrambi muoiono. Un’intelligenza artificiale addestrata a vince- re alla “chicken” non devierà mai. Se da un lato l’AI potrebbe essere un buon consigliere per gli esseri umani – fornendoci informazio- ni utili, affidabili e pertinenti in tempo reale – dall’altro un mondo di agenti AI autonomi rischia di creare molti nuovi problemi, ero- dendo molti dei vantaggi che la tecnologia avrebbe potuto offrire. B E | B AN K E R S 83

RkJQdWJsaXNoZXIy MTUzNjY=