Perché le macchine non saranno mai in grado di governare il mondo

Non avremo mai un’intelligenza artificiale generale che possa sostituire gli uomini


17 Aprile 2024

Affari & Finanza – la Repubblica

Barry Smith

Autore

Argomenti / Teoria e scienze sociali

Progettare un modello matematico che emuli il comportamento del sistema neurocognitivo umano è ora e resterà per sempre impossibile. Per questo motivo non avremo mai un’intelligenza artificiale generale che possa sostituire o prendere il comando sugli esseri umani. Per intelligenza artificiale generale (AGI) intendiamo un’AI caratterizzata da un livello di intelligenza equivalente o superiore a quello di un essere umano. In alternativa, possiamo definire la AGI come un’AI in grado di affrontare i problemi del mondo circostante con un’efficacia paragonabile a quella degli esseri umani. Inoltre, una AGI dovrebbe possedere una caratteristica essenziale dell’intelligenza umana, ovvero la nostra capacità di rispondere spontaneamente e in modo efficace a nuovi stimoli ambientali senza alcun addestramento o formazione precedente.

Le differenze tra sistemi
Un elemento centrale della nostra argomentazione è la sostanziale differenza tra sistemi semplici e complessi. Mentre il comportamento dei sistemi semplici può essere previsto matematicamente, ciò non è vero per quello dei sistemi complessi. La nostra tesi parte da qui: per costruire un’intelligenza artificiale avremmo bisogno di una tecnologia dotata di un’intelligenza paragonabile a quella umana. Sono state proposte diverse strategie per progettare una tecnologia di questo tipo e noi sosteniamo che nessuna di queste è fattibile. Ci concentriamo sulla strategia che propone la creazione di un software che emuli il comportamento del sistema neurocognitivo umano. Il problema è che sarebbe necessario progettare un modello matematico del sistema neurocognitivo umano in modo tale che il comportamento del modello sia prevedibile. Ma poiché è impossibile costruire tali modelli matematici per sistemi complessi, e dato che il sistema neurocognitivo umano è un sistema complesso, possiamo concludere che non è possibile creare un’emulazione software.

Da questo consegue che un’intelligenza artificiale che eguagli o superi quella umana è impossibile. E da ciò consegue che le macchine non governeranno mai il mondo.

In questo contesto è importante dare il giusto risalto alla contrapposizione tra la cosiddetta “AI ristretta” e la “AI generale” (AGI). Mentre costruire una AGI è impossibile, i campi di applicazione dell’AI ristretta stanno chiaramente crescendo: ne sono un esempio AlphaFold, AlphaGO, deepL e molti altri. Continueremo a vedere progressi concreti e sorprendenti, che possono portare grandi benefici all’umanità. Oggi, il potenziale offerto dai modelli linguistici di grandi dimensioni (LLM) – tra cui ChatGPT – sta ricevendo non solo una grande attenzione, ma anche un discreto clamore. È utile capire come vengono addestrati gli LLM, come vanno interpretati i loro risultati e perché continuano a commettere quegli strani errori che chiamiamo “allucinazioni”. Scopriamo che gli LLM non sono un passo avanti sulla strada dell’AGI, ma piuttosto esempi di AI ristretta (piuttosto deludenti). Se non comprendiamo questa differenza fondamentale tra i due modelli di intelligenza artificiale non faremo altro che alimentare l’attuale entusiasmo per gli LLM, aumentando così il rischio concreto di incorrere in una cocente delusione.

La disillusione ciclica
Le ondate di grande entusiasmo nell’AI si sono alternate ciclicamente a ondate di disillusione, portando così a una successione di “inverni” dell’AI come è avvenuto negli anni 70 e 80. Le ragioni sono molteplici. Tra di esse vi è il fatto che molti dei progressi reali nell’AI (ristretta) passano inosservati perché sono in gran parte assimilati in innumerevoli prodotti e servizi di uso quotidiano. Un’altra è che l’entusiasmo iniziale per ogni nuovo tipo di AI si basa su una sopravvalutazione del suo potenziale, motivo per il quale i successi inizialmente impressionanti su certi fronti non si generalizzano quando si cerca di applicarli in altri settori.

Un altro fattore è la tendenza umana ad antropomorfizzare. Quando il computer sembra bloccarsi durante l’esecuzione di un compito complicato, siamo tentati di dire “sta pensando”. Ma non è così. I processi all’interno del computer sono e rimarranno sempre fisici. Anche in futuro, i computer non saranno in grado di diventare coscienti, perché la presunta coscienza o “modo di pensare” rimarrà dipendente dall’osservatore. Ciò significa che quando attribuiamo la coscienza ai computer (o al personaggio di un cartoon), in realtà siamo sempre noi stessi a essere coscienti.

Le macchine, insomma, possono avere prestazioni impressionanti quando si tratta di produrre, ad esempio, modelli di linguaggio sequenziali. Ma falliscono nell’emulare altri aspetti dell’intelligenza umana, dalla coscienza alla consapevolezza, dalla felicità al desiderio, dall’entusiasmo alla sfiducia, dalla creatività alla capacità di impegnarsi in un dialogo aperto e imprevedibile.

Barry Smith, Filosofo e docente dell’Università di Buffalo di New York, intervenuto all’evento OGR di Fondazione CRT – Istituto Bruno Leoni

oggi, 6 Dicembre 2024, il debito pubblico italiano ammonta a il debito pubblico oggi
0
    0
    Il tuo carrello
    Il tuo carrello è vuotoTorna al negozio
    Istituto Bruno Leoni