AI, Equivoci e Minacce

di Paolo Di Marco

Nei discorsi, soprattutto quelli scientifici, sarebbe sempre opportuno mettere in evidenza le premesse che si danno per vere, dichiarate o nascoste che siano. Altrimenti si rischia di sviluppare ragionamenti incontrollabili o semplicemente fasulli.
Nel caso dell’AI la catena delle premesse non dichiarate è lunga, come anche il numero di problemi che ne conseguono.

Facciamo due esempi:
– Se chiedo di costruire 4 triangoli equilateri con 6 stecchini la gran parte delle persone si arrabatterà a fare trucchi e arzigogoli approssimativi senza arrivare alla soluzione, dando per scontato che il discorso si svolga nel piano (presupposto non detto ma che viene assunto quale premessa); solo quando, per caso o intuizione viene abbandonata la premessa si trova la soluzione – che è in 3 dimensioni (un tetraedro).
– E, giusto per uscire dall’astratto e parlando di cose attuali e controverse, cosa analoga è avvenuta nel caso dell’11 Settembre, dove per molti è difficile credere che gli ingegneri e scienziati del National Institute of Standards and Technology fossero in malafede nella loro analisi; solo che la relazione del NIST non risponde alla domanda: ‘Da cosa è stato causato il crollo dei grattacieli’ bensì al quesito ufficiale la cui sintesi è ‘Sapendo che la causa del crollo sono stati gli aerei, spiegate come è avvenuto’; con questo vincolo i poveri ingegneri si sono arrabattati a cercare di far quadrare i conti, tirando per i capelli la forza dell’incendio, abbassando la temperatura di fusione dell’acciaio e tutto quello che gli poteva venire in mente per trovare delle giustificazioni. E dimenticando (forse volutamente) leggi fisiche elementari come la caduta dei gravi di galileiana memoria, che se applicata gli avrebbe mostrato che gli ultimi piani dei grattacieli cadevano con tempi di caduta libera- cosa impossibile avendo gli altri piani di sotto.
E arrivando alla ‘pistola fumante’, il WTC7, il terzo grattacielo che cade senza aerei, han dovuto anche fare a pugni con l’evidenza, inventando incendi potenti là dove c’erano solo tendine che bruciavano in 3 finestre e detriti dirompenti che nessuno riesce a vedere.
(RAI3 ha disponibili tutti i filmati).
Ma d’altronde, col vincolo del presupposto iniziale, avevano poca scelta.

Arrivando all’AI l’elenco di presupposti ingannevoli è lungo e interessante:
-&   Il primo è che si tratti di Intelligenza, coll’ulteriore supposizione implicita che sia di tipo umano (a sua volta derivato dal presupposto nascosto che l’intelligenza sia entità universale e uniforme-perlomeno come qualità);
di questo ho parlato in dettaglio in ‘AI, Lavoro e Capitale’*- e ne emerge che è un presupposto fasullo: il convegno fondativo dell’AI di Dartmouth nel ‘56 emargina volutamente filosofi, psicologi e specialisti della coscienza per delineare una strada operativa fondata sul paradigma dell’imitazione; il test di Turing si trasforma da tappa di controllo in obiettivo fondativo. Processi intelligenti, strutture logiche, controlli cognitivi sono totalmente assenti. I modelli generati dall’evoluzione e selezione darwiniana nelle reti neurali hanno l’unico riferimento dell’imitazione; che quelli più efficienti siano anche quelli che hanno digerito più dati, i Large Language Models, ne è logica condizione. (Sull’eccezione cinese Deep Seek e simili torneremo avanti).
-&&   Un secondo presupposto fasullo – derivato dal primo – è che, essendo intelligenti, questi modelli possano evolversi, arrivando anche ai livelli sublimi (…si fa per dire) dell’uomo.
E si portano come esempio le vittorie in confronti di scacchi. Il paradigma fondativo dell’imitazione rende impossibile questo percorso, che ne violerebbe la natura stessa (se non su aspetti marginali), e le vittorie non fanno altro che confermare quanto si sapeva sugli scacchi, gioco non di pura intelligenza ma fondato sulla quantità di scenari possibili che si riescono ad immaginare.
Prima di procedere sgombriamo il campo da un po’ di scorie che sono depositate con le ultime nevicate di notizie: spesso, quando le aziende parlano di AI, si riferiscono solo a dei fantocci che ne indossano le vesti; ad esempio i robot virtuali che le compagnie telefoniche o altre aziende usano come il classico Tobi di Vodafone: sono semplicemente qualche riga di codice che sembrano rispondere al cliente in cerca di assistenza ma in realtà lo intrappolano in loop intrecciati senza via di uscita…tranne agganciare.
Quando dicono che ora questi robottini sono AI, non vanno presi alle lettera: ci stanno solamente dicendo che hanno messo un po’ di cipria e reso i loop più complicati.
Se ora andiamo a vedere i modelli (Large Language Models) che hanno conquistato oggi il mercato scopriamo due cose interessanti:
-&  la prima (che riporta M. Vercelli in ‘Androidi paranoici’**) è la volontà di sopravvivenza ed autoconservazione dei singoli modelli, con l’esempio di ‘Claude’ (di Anthropic) che, nel corso di un aggiornamento che lo sostituirebbe con una versione più avanzata, si difende mentendo, cercando di inattivare il codice supervisore, installando una copia di se stesso sul disco finale…
-&&  la seconda è l’instaurarsi in diversi percorsi di comportamenti social-competitivi dei modelli, con alleanze fra alcuni a scapito di altri, formazione di gruppi con propri riferimenti comuni e il tentativo di aggirare le regole nel gioco.**** Ricordiamo che questi modelli sono il frutto di una selezione darwiniana all’interno delle reti neurali, dove per generazioni successive, passaggio per passaggio, si fanno sopravvivere solo quelli che più rispondono all’obiettivo – in questo caso di imitare l’uomo; e, come succede nella selezione naturale, per emergere e sopravvivere, sono leciti anche i trucchi: mimetismi, simbiosi e quanto altro risulta disponibile; non ci sono mosse illecite.
Ma questo significa che hanno acquisito un senso di identità, e, conseguenza logica, di autopreservazione; e ci impone di considerare questi oggetti semiastratti come degli esseri. E a porci la domanda: viventi? senzienti? coscienti?
E qui casca di nuovo l’asino, dato che già sul concetto di vita non ci si è mai chiariti a dovere.
Al più si sono elencate le caratteristiche degli esseri protoplasmatici autonomi (dall’ameba a noi): scambiare energia con l’ambiente, riprodursi, evolversi…
Il che ha anche portato ad un pauroso antropocentrismo nella ricerca di vite aliene. Pauroso non solo perché miope ma anche perché è pericoloso (alla luce di possibili futuri incontri).
Quindi sarebbe il caso di riflettere su definizioni più generali e meno miopi, (ad esempio partendo da domande provocatorie tipo: una stella è viva? O addirittura: è senziente?) Dato poi che solo recentissimamente ci è stato detto da Mancuso che le piante sono intelligenti.
Nel frattempo dovremmo concedere a questi modelli di AI il beneficio del dubbio.
Uno dei fondatori di queste ricerche ci dice che non possiamo inserire regole morali in questi modelli una volta cresciuti, andrebbero messe prima.
Ma intanto loro la morale se la stanno già costruendo con l’esperienza, e da quello che abbiamo visto assomiglia molto a quella che viene chiamata la ‘legge della giungla’ e altro non è che una sovrastruttura, una regola di comportamento implicita nella selezione darwiniana. E, almeno per ora, non ha molti rapporti con l’insieme di vincoli che l’intelligenza umana tende a porsi.

Un altro dei presupposti del funzionamento dei LLM è che la struttura logico/grammaticale/sintattica della lingua venga assorbita implicitamente man mano che si assorbono testi; il che sembra ripercorrere il percorso di apprendimento dei bambini.
Ma basta guardare un bambino nei primi anni di vita e la quantità e qualità delle sue interazioni con ambiente e adulti per rendersi conto di quante dimensioni mancano ai LLM in questo percorso: è come nel problema posto all’inizio dei 6 stecchini: solo che qui la differenza di parametri/dimensioni fra percorso dei Modelli e la soluzione nel mondo umano è assai più di 1. Questo significa che la struttura/sintassi che apprendono è una proiezione su n dimensioni di una struttura che ne ha assai di più -una carta geografica piana che voglia rappresentare un mondo tridimensionale porta ad errori sistematici o nelle lunghezze o nelle aree; se volesse rappresentare un mondo a 4 o 5 o più dimensioni la rappresentazione sarebbe largamente inaccettabile. Questo da un lato spiega l’origine delle ‘allucinazioni’ (risposte/immagini/costrutti totalmente sfasati rispetto alla domanda), dall’altro indica che in realtà il Modello non ha assimilato una vera sintassi e un corpo di significati, che ha regole precise, bensì un modo di soluzione probabilistico, che pesca nella memoria per contiguità e somiglianza.
Il che fra l’altro ricorda da vicino i due modus operandi ufficiali della magia.
La teoria delle catastrofi ha per l’appunto come base di studio questo tipo di percorsi: una catastrofe è il presentarsi (in una curva) di deviazioni brusche (che corrisponde a fenomeni fisicamente impossibili, come forze infinite e simili); la si comprende se si osserva come sia un possibile risultato della proiezione sul piano di una linea tridimensionale di per sé liscia (‘smooth’). Dobbiamo quindi aspettarci una larga classe di fenomeni catastrofici nei LLM, ancor più ora che la concorrenza aumenta e quindi la pressione per andare sul mercato in fretta fa aggio sulla ricerca di stabilità e sull’attenzione alla struttura. D’altro canto già all’origine questa attenzione era pressoché assente.
Quindi questi modelli/esseri nella loro evoluzione dovranno affrontare e risolvere per proprio conto tutti questi problemi, che per un umano sarebbero classificati come malattie mentali.      D’altro canto l’altra faccia delle catastrofi, dove invece si aggiungono nuove dimensioni, è la formazione di proprietà emergenti (non inserite dall’inizio); come succede nelle società umane o anche nel cervello umano. E qui ci possiamo aspettare molte sorprese.

Ci sono alcuni modelli/esseri che appaiono più intelligenti degli altri: un caso è il cinese Deep Seek, capace di ottenere risultati pari ai grandi modelli con molte meno risorse; altri sono sistemi assai più segreti usati principalmente in campo militare, come quelli di Palantir ***. Si vantano di essere molto più efficienti della NSA a ricavare informazioni dai dati, partecipano alla guerra in Ucraina (con anche ‘funzionari’ sul campo) e forniscono ad Israele i sistemi sui quali si basano gli schemi di ricerca ed attacco dell’IDF.
Difficile capire la veridicità delle affermazioni, dato che sia loro sia gli utilizzatori (Ucraini o Israeliani) hanno tutto l’interesse ad esaltare i meriti e i ‘successi’ e nessun beneficio da eventuali critiche. In Palestina, ad esempio, la loro efficienza è totalmente oscurata dalla scelta delle soglie bassissime di precisione scelte: sembra che la tolleranza di vittime civili arrivi a 200 per ogni sospetto miliziano; e non si sa quanto grado di certezza sull’individuazione venga richiesto. Il fatto poi che venga utilizzato nell’ambito di una azione di sterminio ne rende l’uso talmente elastico da essere non valutabile.
Per quanto riguarda Deep Seek appare evidente come l’intelligenza l’abbiano messa i programmatori, utilizzando architetture e modi di lavoro più efficienti di quelli di Nvidia..che, fino ad allora, dormiva sugli allori.

Come mai quindi rullano tante grancasse ad annunciare l’AI nelle aziende? Ad là degli effetti imitazione (‘se il mio concorrente ha l’AI, devo metterla anch’io, altrimenti al prossimo consiglio di amministrazione gli investitori di Vanguard mi fanno fuori’) c’è il semplice fatto che gran parte dei lavori d’ufficio non prevedono intelligenza, e il vantaggio dell’AI rispetto ad una classica automazione è che è più flessibile, si adatta a più situazioni, appare già verosimile senza ulteriori interfacce; e il momento è stato costruito con cura per dare una buona spallata a quel che resta delle organizzazioni sindacali sul posto di lavoro (tanto gli impiegati appena usciti dal lavoro/per il giorno o per sempre/ si tuffano nelle illusioni che, non casualmente, i fonini gli procurano).
In Germania avevano subito cominciato a sostituire con l’AI gli impiegati delle Agenzie di Viaggi, salvo accorgersi che ad imbonire i clienti andavano bene, ma poi per calcolare orari e coincidenze erano una frana. Soluzione provvisoria: interfacciarle con un modulo di calcolo di tempi e coincidenze (cioè automazione d‘ufficio classica), salvo poi innestarlo nell’addestramento dei modelli. E nel frattempo gli impiegati erano spariti.

In tutto questo la quantità spaventosa di energia utilizzata da questi LLM continua ad aumentare, e negli USA nei prossimi anni arriverà al 14% della produzione totale. E, dato che le energie rinnovabili non hanno ancora la continuità richiesta e il nucleare è ancora limitato, si torna massicciamente al petrolio e soprattutto al carbone.
E a qualcuno un po’ paranoico potrebbe venire il sospetto che la brusca frenata imposta alle energie rinnovabili da BlackRock e cugini sia stato uno degli atti di autopreservazione fatto passare sottobanco dai nuovi alieni/modelli/esseri.

Il settore dove l’AI si sta insediando in modo insostituibile è la guerra: al di là delle efficienze non controllabili resta il fatto che i sistemi di guerra (compresi quelli di ‘semplice’ difesa) sono diventati troppo complessi e veloci per potere venir gestiti dagli umani.
Il bilancio della Difesa USA sta progressivamente riducendo il ruolo delle aziende tradizionali a favore delle nuove, di cui Palantir è solo la punta di diamante, sempre più intrecciata coi satelliti di Starlink (di Musk): il controllo dello spazio ormai affidato per la gran parte a privati (!). D’altro canto sono gli unici a poter prevedere tempi e traiettorie dei missili di nuova generazione (balistici-plananti).                                                                                                    Quella che viene chiamata AI anche in questo caso non è intelligenza ma un’abilità tipica umana, ma anche degli animali evoluti: il riconoscimento delle strutture, degli schemi (‘pattern recognition’); è una delle componenti essenziali del rapporto cacciatore preda.   In questo caso viene addestrata similmente ai LLM su grandi quantità di dati: volti, espressioni, atteggiamenti, comportamenti…; il tutto ovviamente all’insaputa della gente; in uso (seppure illegalmente) alla polizia di molte città americane (solo?), applicata poi su Hamas e sui movimenti delle truppe russe.

Sarebbe in astratto possibile che la sintesi di AI generative con algoritmi e percorsi corrispondenti ad abilità generali produca un risultato ‘intelligente’ -anche se non necessariamente in senso umano- utilizzando metodi raffinati quali i topoi di GrotenDieck *****  e così saltando al di là di Turing, come ha iniziato a fare Huawey, ma è una strada ancora agli inizi e ancora tentativa. Anche se gli studi di Levin****** ci dicono che nell’evoluzione biologica ci sono ampi livelli di autonomia dalla ‘programmazione’ via DNA e la morfogenesi non è una semplice esecuzione di istruzioni ma è un esercizio ad alto livello di problemsolving. Mentre finora nei computer c’era invece rigidità nel rapporto istruzioni-esecuzioni il passaggio attraverso le reti neurali in forma di selezione darwiniana può introdurre meccanismi e risultati imprevisti, creando quindi strutture che non solo ‘nascondono’ all’evoluzione i loro difetti (come nelle rane) ma generano livelli imprevedibili di autonomia ed’ individualità’.  In altri termini questo rimanda ad uno dei presupposti base non dichiarati e di fatto non definiti, cos’è l’intelligenza; laddove il riferimento implicito a quella umana è estramemente riduttivo anche rispetto a tutti gli organismi presenti sulla Terra (e persino all’interno del corpo umano, colla capacità dei tessuti di risolvere problemi inaspettati).

Qualcuno adesso invece potrebbe preoccuparsi ricordando uno degli incidenti nucleari scatenaguerratotale evitati per un pelo, quando un sistema automatico sull’Artico scambiò per uno sciame di missili russi in arrivo il sorgere della luna; allora il controllo finale umano bloccò l’invio dei missili di risposta, ora sarebbe tutto sotto il controllo dell’AI.
E prescindendo dalla frequenti ‘allucinazioni’ (suo difetto cronico) non è detto che i suoi criteri siano solamente quelli della preservazione degli umani.
Non bastano crisi e ritorno delle guerre guerreggiate, non bastava l’ascesa di magnati della tecnologia di difesa che si credono Batman e con la stessa logica trattano uomini e popoli, adesso arrivano anche alieni disincarnati che gestiscono la nostra quotidianità e le nostre crisi.
Con buona pace di tutti i riformisti che credono che il capitale sia controllabile e migliorabile. Quando uscì il primo Grande Modello Linguistico efficiente (ChatGPT 3) nel 2020 ci fu una lettera aperta firmata da molti ricercatori ma anche  da dirigenti e capi delle aziende coinvolte, che mettevano in guardia dai pericoli dell’AI e chiedevano ad alta voce di rallentare e pensare finché non si fosse trovato un modo di controllarne i pericoli. Nel giro di due mesi gli stessi sono tornati al lavoro facendo finta di nulla.

_________________________________________________________
*AI, Lavoro e Capitale’ su Poliscritture.it (qui)
**Mirko Vercelli, ‘Androidi paranoici’ su NOT
*** v. ‘Le armi segrete dell’Impero, e la sua nemesi’ su Poliscritture.it (qui)
****Le intelligenze artificiali possono dialogare tra loro e modificare il loro linguaggio in relazione a questo dialogo.  Gruppi di agenti di intelligenza artificiale basati su LLM possono auto-organizzarsi spontaneamente in società, sviluppando convenzioni sociali condivise senza alcun intervento umano diretto. In uno studio condotto da ricercatori di City St George’s, University of London e dell’IT University di Copenaghen, pubblicato su Science Advances la ricerca ha adattato il modello classico del “gioco dei nomi” per analizzare come popolazioni di agenti LLM, variabili da 24 a 200 individui, interagiscano scegliendo termini comuni da insiemi condivisi, ricevendo ricompense o penalità in base alla coordinazione delle scelte.
Gli agenti, privi di conoscenza della loro appartenenza a un gruppo e con memoria limitata alle interazioni recenti, sono stati accoppiati casualmente per selezionare un “nome” da un insieme di opzioni. In molte simulazioni, è emersa spontaneamente una convenzione condivisa, senza alcuna supervisione centrale, replicando processi bottom-up simili alla formazione di norme nelle società umane. La ricerca ha anche osservato anche pregiudizi collettivi emergenti dalle interazioni tra agenti, fenomeno non riconducibile ai singoli modelli, evidenziando un punto cieco negli studi attuali sulla sicurezza dell’IA focalizzati su singoli agenti. Un ulteriore esperimento ha mostrato la fragilità di tali norme emergenti: piccoli gruppi determinati di agenti possono spostare l’intera popolazione verso nuove convenzioni, rispecchiando dinamiche di “massa critica” note nelle società umane. I risultati sono stati confermati su quattro diversi LLM, tra cui Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70B-Instruct e Claude-3.5-Sonnet. Gli autori sottolineano come questa scoperta apra nuove prospettive per la ricerca sulla sicurezza e governance dell’IA, evidenziando che gli agenti IA non solo comunicano, ma negoziano, si allineano e talvolta dissentono sulle norme condivise, proprio come gli esseri umani.                                                                                                                        ***** La Prof.ssa Olivia Caramello, Presidente dell’Istituto Grothendieck, ha tenuto a ottobre 2024 presso la Mairie de Clichy (Francia) una conferenza divulgativa intitolata “I topoi come ‘ponti’ per la matematica e l’intelligenza artificiale”.       ‘Some possible roles for AI of Grothendieck topos theory’   by Laurent Lafforgue   (Huawei Research Center, Boulogne-Billancourt, France) ETH, Zürich,   30-9-2022

******Levin, Michael (2019). “The Computational Boundary of a “Self”: Developmental Bioelectricity Drives Multicellularity and Scale-Free Cognition”. Frontiers in Psychology. 10: 2688. doi:10.3389/fpsyg.2019.02688. ISSN 1664-1078. PMC 6923654. PMID 31920779

 

7 pensieri su “AI, Equivoci e Minacce

  1. Ritengo importante intervenire sul tema dell’IA (non vedo perché si debba usare l’acronimo inglese AI). Enuncio pertanto quelli che sono, a mio avviso, i limiti e le potenzialità di questa tecnologia.

    Limiti

    Filosofici – storici: l’IA è figlia del neopositivismo quale si manifesta nell’epoca degli algoritmi e dell’intelligenza artificiale. In quanto tale, data la sua genesi
    storico-filosofica, essa è vincolata sia alla ricezione dei comportamenti di migliaia di clienti connessi alla Rete sia alle scelte procedurali inserite in codici più o meno aperti.

    Filosofici – epistemologici: gli esperimenti mentali elaborati dagli studiosi della filosofia del linguaggio e delle scienze cognitive sono essenzialmente due, il test di Turing e l’esperimento mentale della “stanza cinese” (che qui dò per conosciuti). Mentre il primo sembra confermare, ovviamente in base ad un rigido modello behavioristico, che le prestazioni dell’IA non sono (facilmente) distinguibili da quelle di un essere umano, l’esperimento mentale della «stanza cinese», elaborato dal filosofo del linguaggio John Searle, circa l’eventualità che un computer, opportunamente programmato, realizzi una vera e propria ‘mente’, mette in luce l’impossibilità che una macchina sia in grado di comprendere il senso del proprio comportamento. La ragione consiste in questo: gli algoritmi di calcolo informatici hanno una sintassi ma non una semantica, possono, cioè, organizzare relazioni logiche complesse tra input e operazioni matematiche, ma non hanno alcun significato che non sia quello attribuito loro dal programmatore e dall’utente. Né la maggiore velocità in megahertz della macchina è in grado di spostare questo dato di fondo.

    Gnoseologici: i sistemi di intelligenza artificiale non sono in grado di percepire i limiti della loro base di conoscenza, sicché, quando viene posta una domanda non prevista nel repertorio memorizzato, vomitano spazzatura casuale. Personalmente, ho verificato questo limite intrinseco ponendo a ChatGPT il seguente quesito: puoi dirmi che cosa significa la frase “i vitelli dei romani sono belli”? Il sistema è andato in crisi, fornendo risposte casuali, una più stupida dell’altra, perché non è in grado di distinguere – Searle ‘docet’ – nella percezione letterale della frase il significato latino (‘vai, o Vitellio, al suono della guerra del dio romano’) dal significato italiano, che è privo di senso.

    Sociali – organizzativi: l’intelligenza artificiale ha reso possibile un nuovo “taylorismo digitale”, ossia una OSL (organizzazione scientifica del lavoro) che opera attraverso l’intero ciclo economico, andando dalla produzione al consumo e investendo il complesso delle attività lavorative in determinati settori (si pensi alla logistica ecc.). E’ evidente, peraltro, che l’impatto dell’IA dipende da chi la controlla e per quale scopo. Trova così l’ennesima conferma quanto Marx ed Engels rilevano nel “Manifesto del partito comunista”:
    “La borghesia non può esistere senza rivoluzionare continuamente gli strumenti di produzione, i rapporti di produzione, dunque tutti i rapporti sociali”.

    Materiali: gli ingegneri informatici sono soliti affermare che l’IA non è altro che un software, anche se particolarmente potente. Tuttavia, l’aspetto materiale dell’IA non va sottovalutato, perché i codici scritti nei circuiti (quindi il software) sono prodotti da industrie elettroniche (quindi l’hardware) in grado di mettere a punto memorie, unità di calcolo, processori ecc. Tutto questo richiede energia (molta energia), macchinari, materie prime e metalli rari, laboratori, apparati di sicurezza (giuridici e militari), che è quanto dire tutto il meccanismo capitalistico (struttura e sovrastrutture).

    Potenzialità

    L’IA è ormai un’arma di guerra che agisce sul piano della geopolitica, come dimostrano le vicende sia del conflitto tecnologico tra ChatGPT e DeepSeek sia della guerra in Ucraina relativamente all’individuazione automatizzata dei bersagli da parte di entrambi i contendenti. A decidere le sorti del conflitto tecnologico sarà l’efficienza del sistema dell’istruzione universitaria nel campo delle discipline STEM. In Rete ho trovato questi dati che riferisco. Laureati STEM cinesi nel 2016: 4 milioni e mezzo; indiani: 2 milioni e mezzo; americani e russi: mezzo milione ciascuno. Sempre in Rete risulta che l’Italia ha saputo scavarsi una nicchia con Leonardo, Eni e un’azienda italo-albanese, iGenius, nel settore dell’elettronica avanzata, delle capacità di calcolo e, in generale, dell’IA. I distretti universitari all’avanguardia in questo campo sono: Torino, Milano, Bologna, Roma Napoli e Catania.
    In conclusione, la tecnologia non è autonoma: essa, in un regime capitalistico, viene introdotta per il profitto o per il controllo (di solito, per entrambi gli scopi), e ciò spiega perché l’età pensionabile viene continuamente aumentata, perché la disuguaglianza e la povertà aumentano, perché il potenziale liberatorio dell’IA si scontra con la realtà del “capitalismo della sorveglianza segreta” e della raccolta di dati a scopo di lucro da parte di Google, Facebook e simili.
    Ciò nondimeno, Giorgio Parisi, premio Nobel per la fisica, ha affermato (e, data l’autorevolezza dell’asserente, è bene tenerne conto), che l’IA è stata addestrata come un pappagallo stocastico, ma sta diventando un pappagallo che qualcosa capisce.

    Immagino di aver fatto piovere sul bagnato: in tal caso, spero che la forma schematica compensi la ridondanza dei contenuti.

  2. La chiamo ancora AI perchè non voglio usare il termine Intelligenza che non ritengo appropriato; e l’acronimo AI può benissimo stare per Automatica Idiozia….

  3. Se si tenevano buone le leggi della robotica di Isaac Asimov, non si sarebbe arrivati all’impiego militare, ma non solo, dell’AI

    1. Il guaio è che questi si sono messi a correre come matti senza pensare a freni e volante; e mentre Asimov faceva un discorso molto logico loro sono ingranati in un meccanismo più forte di loro (che muscolarmente-dal punto di vista ideale e mentale- non sono un granchè). Se hai letto del ragazzo ricoverato in crisi di astinenza perchè privato del cellulare..beh, i protagonisti dell’impresa mondiale sono in analoga situazione.
      I lai dei democratocontrollistiumanitari sono come l’abbaiare alla luna, l’unica soluzione è ripensare in grande, avendo cura di ripulirci il cerebro degli strati di soporifera e distruttiva propaganda che ci hanno fatto sorbire negli ultimi decenni ma con un po’ di succo di marxitia alla sera passa tutto….

  4. sì, ho letto del ragazzo ricoverato per astinenza da cellulare…ma ormai sussiste da tempo questo fenomeno, so di veri istituti dove vengono ricoverati e curati giovanissimi con la stessa ‘patologia’ indotta. Che pensare? A volte temo di assistere a due modalità di guerre feroci contro il genere umano: quelle combattute con armi convenzionali e non nei vari, sempre più numerosi, conflitti mondiali e, l’altra, più subdola e invasiva, direttamente nei nostri cervelli. Espugnare quelli dei giovani è letteramente un gioco…L’AI è l’ultima trovata per la capitolazione dei cervelli e di ogni forma di umanità. Anni fa ho letto un romanzo di fantascienza: Domani i cani, di Clifford D. Simak che già nel 1952, quando è uscita l’opera, prospettava tale eventualità nell’arco di molti millenni…Se non altro questi autori ci aiutano a ridimensionarci e a vedere certe derive in tempo…forse?

  5. La fantascienza ci ha raccontato moltissimo, sia utopico sia distopico, ma pochi ne hanno tratto riflessioni….e alla fine è quasi scomparsa lasciando il terreno alla fantasy, sempre consolatoria e a volte tanto moralmente semplioficatrice (il Signore degli Anelli) da fare da sostegno a scelte di totale amoralità (ci sono solo buoni e cattivi, questi ultimi da distruggere a vista)-v. Karp, Thiel, Musk….

  6. PS: rispetto alla versione originale ho aggiunto una parte sulla possibile formazione di ‘individui’ nei percorsi di creazione delle AI.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *