Archivi tag: Turing

AI, Lavoro e Capitale

di Paolo Di Marco

1- AI

Ne suo articolo seminale (Computer Machinery and Intelligence, Mind 1950) Turing non chiede cosa sia l’intelligenza -compito disperato, dice- ma sostituisce la domanda con un’altra, rappresentata dal ‘gioco dell’imitazione’: una persona in una stanza deve indovinare mediante una serie di domande se il soggetto al di là della parete sia uomo o donna o, successivamente, macchina. Questo verrà poi chiamato test di Turing e rappresenta tuttora il criterio principe del riconoscimento di una Intelligenza Artificiale (in breve AI).
Ma c’è un problema: l’equivalenza fra le due domande è ingannevole; Turing non ci dice che la macchina al di là della parete è intelligente, ma che è indistinguibile. E nel 1950, dato lo stato delle conoscenze sull’intelligenza, questo poteva essere considerato soddisfacente.
Questa attenzione al risultato (il cosa), indipendentemente dal modo di raggiungerlo (il come), viene mantenuta in tutti gli sviluppi successivi, a partire dal convegno ‘fondativo’ del ’56 organizzato a Dartmouth da McCarthy, dove filosofia e scienze neurocognitive sono del tutto marginali rispetto al nucleo matematico-ingegneristico (‘quando il seminario inizierà avremo un accordo eccezionale sulle questioni filosofiche e linguistiche così potremo perdere poco tempo con quelle quisquilie’ scrive Minsky). Il risultato principale del convegno è porre le basi della ‘AI simbolica’ come insieme di regole per la manipolazione di simboli matematici.
Grazie a questo percorso nascono i primi ‘sistemi esperti’: un esempio interessante è il programma ELIZA (dello psicoterapeuta Weizenbaum) che alla affermazione del paziente ‘Io sono Giuseppe’ risponde ‘Da quanto tempo sei Giuseppe?’ e una successione di domande che rimandano sempre la palla al soggetto, lasciandogli la forte impressione di un colloquio oracolare. (Come un famoso programmino per ragazzi degli anni’60, ‘Pangolino’ che faceva credere al fruitore di avere un programma intelligente).
Come osserva Ross Ashby a Dartmouth ‘quando parte di un meccanismo è nascosta all’osservazione il comportamento della macchina appare notevole’. Ma su questa strada della manipolazione di simboli nascono anche macchine per la ricerca automatica di antibiotici come pure giocatori automatici di scacchi (Deep Blue di IBM) capaci di battere il campione del mondo.
A questo percorso se ne aggiunge in parallelo un altro, tradizionalmente legato al termine di cibernetica: sono tutti i meccanismi a retroazione (feedback) che forniscono i sistemi meccanici di capacità di autoregolazione. Dalla antica chiaccherina dei mulini all’umile sciaquone del wc al termostato questa capacità, aiutata e sviluppata dall’aggiunta di piccoli calcolatori programmabili, oltre a sviluppare l’automazione delle macchine fornisce ai robot un’altra vestigia umana.  McCarthy ci gioca (!973, ‘The Little Thoughts of Thinking Machines’) parlando dei termostati che spengono le caldaie perchè ritengono la temperatura troppo alta, e inizia un’abitudine nominale che si attaccherà alle ‘smart machines (le macchine furbe/intelligenti)’ di oggi.
Anche combinando questi due percorsi il risultato, però, resta insoddisfacente in elementi cruciali, come il riconoscimento delle immagini e del linguaggio: un bambino di un anno ha abilità inimmaginabili anche per le macchine più potenti.
Ma, visto che all’origine della ricerca era stato di fatto esclusa la parte sulla struttura dell’intelligenza umana, il cammino riparte dal gioco dell’imitazione e lo eleva a paradigma; si danno in pasto molti esempi di foto contenenti facce ad una macchina (simbolica) a reti neurali insieme ad un esempio di faccia, e si fanno variare le configurazioni della rete selezionando darwinianamente quelle che che restituiscono la maggior parte di corrispondenze vere, in un processo di affinamenti successivi. È un classico esempio di forza bruta: più esempi si hanno e maggiore è il successo. Altrettanto per il linguaggio. Il successo clamoroso di ChatGPT nell’imitare un colloquio umano è dovuta alla mole enorme di dati che ha avuto in pasto.
Questo però è accompagnato da distorsioni (bias) ed ‘allucinazioni’, che errori non sono ma caratteristiche intrinseche dell’imitazione. (Se pensiamo a un oggetto funzionale con una struttura articolata, un’imitazione può somigliarvi moltissimo ma non cogliere quei particolari che sono essenziali alla funzionalità..si veda anche qui ).
Potremmo dire che l’imitazione produce un linguaggio stereotipato, pieno di tutte le idiosincrasie e presupposti nascosti (che sono parte caratterizzante di ogni linguaggio) mescolati a caso. Come nelle immagini il passaggio dalla Gioconda ad Andy Warhol.
Come sempre poi c’è il diavolo nei dettagli: i modelli basati su una grande messe di dati (LLM) prendono il linguaggio di massa , più facilmente accessibile, e quindi anche privo di parole e costrutti rari. Quindi quello con minor quantità di informazione. E per risparmiare vengono assunti a valutare le parole e i costrutti dei giovani kenyoti sottopagati, come in ChatGP: uno strato di presupposti nascosti sovrapposto ad un altro.

2- lavoro
avvertenza: le previsioni sono basate su calcoli già distorti dalle assunzioni originarie: non si parla infatti tanto di AI quanto di un insieme di AI, automazione, sistemi esperti e simili.
le più accurate sembrano le previsioni IMF, laddove le indagini per paese (Francia, Italia, Cina) sono le più contaminate

A differenza dei redditi da lavoro dove i divari diminuiscono, con l’AI aumentano i divari nei redditi da capitale e nelle ricchezze. La ragione principale è che l’AI porta ad una sostituzione del lavoro e ad un aumento della domanda per capitale in AI, aumentando i redditi da capitale e i valori dei beni di investimento. In ogni scenario i tassi d’interesse (= profitto) di quasi 0,4 punti percentuali, col potenziale di compensare parzialmente la tendenza naturale alla discesa dei tassi di interesse in UK e in genere nelle economie avanzate

Come dicevamo queste previsioni mettono insieme automazione ed AI;

Dato quanto abbiamo detto sulla natura dell’AI, il lavoro più a rischio è quello
-dei livelli bassi del lavoro d’ufficio,
-delle agenzie di viaggio
-fino alle banche, alle agenzie di assicurazioni
-i contabili, rappresentanti di commercio
-gli addetti al ricevimento, i magazzinieri
-cassieri e commessi

non cambia la struttura dei call center e delle assistenze, che sono già state ridotte al momento a programmini tipo Pangolino fatti per impedire contatti telefonici reali;
anche con l’AI la funzione rimane la stessa, solo con un po’ di cipria in più.
Il World Economic Forum stima che l’AI sostituirà 85 milioni di lavoratori entro il 2025.
FreeThink ritiene che il 65% dei posti di commesso potranno essere stati automatizzati per quella data.
PwC valuta che a metà anni ’30 il 30% dei posti di lavoro potrebbero essere automatizzati, vuoi per automazione dei macchinari vuoi per sostituzione di impiegati.

Per il lavoro manuale semplice (dai campi alle città) è la solita automazione e le sue convenienze, l’AI rimane distante.

i limiti
Qualcuno sostiene che insegnanti e dirigenti, per fare due esempi, non saranno sostituibili, ma sicuramente ci proveranno.
Per il lavoro d’ufficio complesso qualcuno può illudersi all’inizio e affidarsi all’AI invece che agli umani, salvo poi , in genere, ricredersi.
Tutto dipende da quanto affamato è in quel momento il capitale finanziario e quanto è disposto a scommettere su di un bluff.

Se andiamo ad immaginare il risutato come sostituto di un nostro interlocutore di un ufficio significa che anche noi dovremo adeguarci a questa povertà informativa, in un continuo ciclo perverso. Ma è un modello di impiegato che entra in crisi ad ogni elemento nuovo od imprevisto; e la cosa si può estendere anche a lavori più impegnativi ma standardizzabili; un radiologo sostituito da un sistema esperto AI addestrato alla lettura delle lastre: funziona mediamente bene..finchè non arriva una malattia nuova (tipo Covid) i cui effetti non sono ancora codificati: o tutti i radiologi licenziati vengono riassunti (ma ormai non si trovano più) o la fiducia nei risultati crolla..e vengono licenziati anche gli amministratori.

Non solo il modello statistico dell’AI codifica tutti i pregiudizi e stereotipi riproducendoli con un’aura di oggettività computazionale. Ma, come dice O’Neil (Weapons of math destruction, 2016) il paradigma dell’AI, che si può leggere come proiettare il passato nel futuro, non funziona proprio in campi che cambiano o si evolvono.

3- il capitale barbone

La svolta avviene a cavallo degli anni ’70: le imprese ai piani decennali, poi quinquennali sostituiscono progressivamente termini sempre più brevi per i rendiconti;
il cambiamento è funzionale al capitale finanziario che diventa predominante, e si arriva fino ai rendiconti trimestrali.
L’attenzione si sposta dal processo produttivo e dall’oggetto al profitto disponibile a breve. La proprietà delle imprese si sposta progressivamente dall’imprenditore al capitale finanziario, la cui presenza dominante nei consigli di amministrazione diventa la norma (BlackRock controlla oggi un terzo delle imprese mondiali, e non è solo).
Il fuoco sul profitto immediato va anche a cambiare la forma del processo produttivo: il percorso laboratorio->fabbrica>grande fabbrica automatizzata non è più la norma, sostituito da processi mirati alla massimizzazione del profitto circolante (come il decentramento in tutto il mondo in cerca del lavoro a minor prezzo; v. la crisi e l’abbandono in Italia di Comau, l’impresa che per un certo periodo era la più avanzata per i processi di automazione).
L’innovazione tecnologica si manifesta sempre più come fuoriuscita dall’impresa madre di singoli o rami eretici, mentre il grosso si riduce a cambiamenti cosmetici che assicurino un rapporto indolore col ciclo del consumo.
Il capitale finanziario nutre una massa di renditieri, di cui alcuni (l’1!%) assorbono cifre paperonesche, ma coinvolge nella propria logica larga parte della popolazione: chi ha un piccolo risparmio, o vende casa ed è in attesa di comprarne un’altra, o ha dei soldi superiori alle necessità immediate lo affida alle finanziarie o alle banche (che lo passano alle finanziarie) e diventa compartecipe della stessa logica: non importa dove e in cosa sia investito, importa che renda il più possibile.
Così la mobilità del capitale finanziario, che dismette e riacquista per il solo tornaconto immediato diventa logica universale. Quella che una volta si chiamava la logica del barbone: meglio un bicchiere oggi che una bottiglia domani.

Questa fluidità del capitale finanziario è l’elemento più appariscente, anche se, volendo completare il quadro, dovremmo parlare delle isole intorno a cui questi flussi girano, dei mescolamenti, dei vortici e coaguli. Che poi descrivono la struttura del potere. La mappa ruota necessariamente intorno a questo capitale che generato dal lavoro se ne autonomizza e lo domina, e da qui allarga la sua sfera a inglobare anche ciò che  all’origine non ne era parte. Allargando anche radici e dimensioni della sua nemesi.
Ma, ricordando come Arrighi ha descritto il flusso del commercio e denaro genovese nel ‘500 (Giovanni Arrighi, Il lungo secolo XX, 2014) e come da questo nacque la Spagna e l’impero di Carlo V, la parte iniziale del lavoro è capire in che acque stiamo navigando.
Che, per tracciar rotte, è parte ineludibile.

Una nota

Quando Marx parla delle merci, osserva come per il capitalista non conti più il loro valore d’uso ma solo il valore di scambio. Che possiamo anche aggiornare dicendo che la presentazione, la pubblicità, la forma sono molto più importanti della funzionalità dell’oggetto.
Questa considerazione vale anche per l’AI. L’interpretazione del gioco dell’imitazione come Santo Graal dell’AI va a braccetto colla natura del capitalismo; e fa ben vedere come l’AI è entrata in sinergia coi mercati ed è evoluta in una disciplina dominata dai giganti della Silicon Valley ed è stata da loro ‘corporatizzata’.
Ma questo con una possibile Intelligenza Artificiale reale c’entra poco.
Come dice Dreyfus (What computers can’t do, ’72) ‘il primo uomo che si è arrampicato su un albero poteva affermare di aver compiuto un progresso tangibile verso l’ascesa alla Luna’, ma purtroppo raggiungere la Luna richiede metodi qualitativamente differenti dall’arrampicarsi sugli alberi.
Per un progresso tecnologico reale le imitazioni non bastano.

bibliografia ulteriore
1- Paolo Di Marco, L’automazione, D’anna
2- Paolo Di Marco, L’organizzazione del lavoro sociale, D’Anna
3- Franco Romanò e Paolo Di Marco, La dissoluzione dell’economia politica
4- Rapporto IMF SDN/2024/001, M. Cazzaniga et alii, Gen-AI: Artificial Intelligence and the future of work
5- Deepak P-Mere Imitation, Psyche/Aeon 24
6- Aghion P.-Artificial Intelligence, Growth and Employment:The Role of Policy
7- Capello, Lenzi-Automation and labour market inequalities: a comparison between cities and non-cities
8- Yang Shen & Xiuwu Zhang1, The impact of artificial intelligence on employment:
the role of virtual agglomeration

42, rivisitato/sulla vita, l’universo..e tutto

Premessa

Nella imprescindibile Guida Galattica per Autostoppisti com’è noto si trova anche la risposta alla domanda fondamentale sul mondo e sulla vita, ed è 42.
Ma dato il tempo trascorso dall’ultima edizione (anche se cambiata da quella originale del ’78) sentiamo il bisogno di un aggiornamento su alcuni temi che ci stanno a cuore.

1- Cos’è la vita

Schrœdinger, uno dei fondatori della meccanica quantistica, nel 1943 tenne delle conferenze su questo tema a Dublino, poi tradotte in libro nel ’44. Da qui nasce il dibattito moderno sul tema.
Purtroppo viziato da un presupposto implicito, cioè che si tratta della nostra vita. L’obiettivo è quindi assai importante ma limitato, e inficia in modo quasi automatico tutti i dibattiti sugli alieni. Così come ingenera, sempre in automatico, una gabbia concettuale che racchiude le analisi delle ragioni di quello che è successo ma non considera quello che avrebbe potuto essere.
Anche l’ultimo libro sull’argomento, quello di Paul Davies, fisico e divulgatore (nonchè portavoce ufficiale del comitato di ricevimento degli alieni, PPSDTG@SETI), non sfugge a questo limite, anche se i risultati cui arriva possono aiutare ad allargare gli orizzonti.
Ma conviene precisare subito com’è fatta la gabbia: anche perché altrimenti la nostra capacità di riconoscere un alieno verrebbe pericolosamente compromessa (in umile ma netto dissenso con Jim al Khalili e tutti gli scienziati che intervista nel suo libro).

Se eliminiamo il requisito che la vita sia del tipo della nostra, quindi protoplasmatica, intelligente (e auspicabilmente di bell’aspetto) dobbiamo riformulare i caratteri base evitando ogni presupposto nascosto; un possibile elenco sarebbe:
1- ha uno scambio di energia/materia con l’esterno
2- ha una propria dinamica interna che la fa evolvere
3- scambia informazione con l’esterno
4- si riproduce
Mentre 1 e 2 appaiono essenziali, 3 lo è un po’ meno, e 4 altrettanto.
Una domanda interessante che aiuta a chiarire il problema è: una stella è viva?
Non possiamo usare una risposta a priori, che sarebbe assai utile a delimitare il campo, in quanto non possiamo avere una certezza sufficiente ad orientarci e quindi inficieremmo tutto il discorso: mentre possiamo escludere che un sasso sia vivo per una stella la questione è più complicata di come potrebbe apparire a prima vista: infatti soddisfa certamente le prime due condizioni, per la terza emette informazioni (e non sappiamo bene se ne assorba) e per la quarta in certi casi (supernova) con la morte manda in giro frammenti di sé che fecondano altri elementi (i metalli pesanti dei pianeti).
Questo però dà una prima idea del tipo di percorso necessario a definire la vita una volta abbandonato il requisito nascosto protoplasmatico se non antropomorfico.
Un elemento interessante è che mantiene una caratteristica di base: è un sistema aperto.
E quindi possiamo accorgerci se un alieno si sta avvicinando perché scambia energia con l’esterno (almeno quasi sempre: anche da noi un batterio in difficoltà si incistida in spora per tempi anche lunghissimi…ne hanno scoperti recentemente alcuni sotto il ghiaccio da milioni di anni..).
Ma l’entrata in scena dei batteri ha un significato più vasto nel discorso: per Davies i tumori sono il risultato di uno scontro fra l’origine monocellulare degli organismi e quella multicellulare che ci vede partecipi. Quello che succede è che quando una cellula si trova in difficoltà/ambiente ostile/aggressione esterna tende a ritornare alla condizione primitiva unicellulare, che ha due caratteristiche base: è immortale (continua a riprodursi), e si difende dall’esterno (che in questo caso è il resto dell’organismo). Quindi il problema non è distruggere le cellule in guerra con l’organismo ma eliminare l’ambiente aggressivo e in qualche modo (…) convincerle a cooperare di nuovo.                                                                          (La somiglianza coi problemi delle guerre civili è evidente).

Tornando ai quanti potremmo chiederci (e qualche venditore di olio di serpente ha già le ricette pronte..) se esistono una biologia quantistica e una medicina quantistica. Per la prima la risposta è sì, ma: ci sono molti fenomeni quantistici, come la fotosintesi clorofilliana, ma nessuno di quelli ‘strani’ che comportano delocalizzazione, sdoppiamento, intrecciamento. Quindi per la seconda la risposta è no: quelli che ci possono essere a livello di chimica fine sono nascosti da effetti macroscopici e fluttuazioni termiche di dimensioni assai maggiori, quindi sarebbero in ogni caso invisibii e inutilizzabili.

2- Cosè la coscienza

Nel libro di Davies il discorso sulla coscienza parte dai lavori di Tononi (nel nostro recente articolo su ‘Uscire dal tempo’ c’eravamo più appoggiati sull’altro pilastro, Damasio).
Ma con un accento nuovo: la coscienza come informazione strutturata. È un concetto che viene dalla teoria dell’informazione, ancora dai lavori di Turing e Shannon e von Neumann, e passa nei calcolatori e nell’intelligenza artificiale. Sembra un ossimoro, dato che ciò che caratterizza un insieme strutturato rispetto ad uno casuale è proprio l’informazione, e soprattutto Davies non va molto più in là.

Per farlo conviene fare un passo indietro: per costruire un cavolo romano (che ha una struttura frattale, con forme semplici che si ripetono a varie scale) la natura usa pochissime informazioni, che quindi si chiamano informazioni ‘potenti’; a queste accompagna uno schema di controlli (tanto più sofisticato quanto più le informazioni sono semplici) che avvia, dirige e ferma il processo. La combinazione dei due è un’informazione strutturata.
Lo stesso avviene col DNA: tutta l’informazione per costruire una donna (l’uomo è solo un accessorio) è contenuta lì. La gestione prima e il controllo poi di questa informazione è affidata agli ormoni: è l’insieme dei due che la rende informazione strutturata.
In altri termini significa aggiungere una dimensione (o più) all’informazione in sé. E così la coscienza è legata alla connessione tra i diversi sistemi informativi del corpo. C’è anche un indice, φ, che specifica il grado di interconnettività e di informazione strutturata collegata a questo. Continuando a dare i numeri, il cervello umano ha 100 miliardi di neuroni, e le sue interconnessioni sono 1000 triliardi (con una velocità superiore a qualsiasi supercomputer: 10000000000000000-10 elevato alla 15- operazioni/secondo).
Ma è necessario fare una distinzione spesso trascurata sui tipi di coscienza, che possiamo dividere in tre: l’autocoscienza, l’attenzione cosciente all’esterno, il ragionamento (che anche se a volte avviene anche nel sonno o sotto la soglia di attenzione è un processo autonomo rispetto alla gestione delle informazioni: teniamo conto che la coscienza è assai più della mera consapevolezza: il nostro cervello è una macchina per simulazioni potentissima, che crea e modifica continuamente scenari e mondi virtuali (tutto per prevedere l’evoluzione dell’ambiente esterno, essenziale quando eravamo cacciatori e prede); e anche il ragionamento è assai più di una catena di proposizioni: anch’esso lavora su più piani e coinvolge molti sottosistemi, costruendo varianti di realtà virtuale ).
Il rapporto tra coscienza ed emozioni su cui insiste Damasio è un esempio chiave del numero di dimensioni (di parametri) che la caratterizzano.

L’attivazione delle connessioni prodotta dagli allucinogeni, evidenziata in questa magneto/termografia, che coinvolge un numero impressionante di sottosistemi del cervello, dà un’idea per quanto semplificata e apparentemente uniforme del numero di dimensioni in più coinvolte.
(Ancora qualche numero: fra due sottosistemi c’è una sola connessione, fra 3 ce ne sono 3. Fra 4 ce ne sono 6….; regolare la coscienza in presenza di più connessioni è come un giocoliere che fa roteare delle palle colorate aggiungendone man mano una: per riuscirci -e non è detto che ci riesca sempre- deve salire di livello/dimensione).

L’elemento da non dimenticare è che anche per la coscienza vale il principio che la regolazione è essenziale.
Un esempio dalla produzione di massa può aiutare: per costruire un oggetto, ad esempio un’automobile, possiamo seguire due metodi: combinare tanti elementi semplici, il che permette di semplificare l’acquisizione dei pezzi base, o produrre direttamente parti finite. Questo secondo ha il vantaggio che siamo sicuri della funzionalità (per esempio resistenza strutturale) mentre nel primo dobbiamo controllare attentamente l’assemblaggio perché un piccolo errore potrebbe compromettere tutto. In compenso il primo è più elastico e permette di produrre una versione modificata con un piccolo cambiamento del processo.
Anche il nostro cervello ogni tanto si riposa e utilizza sistemi concettuali già organizzati come stampi base. Coi vantaggi e gli svantaggi dell’esempio.
E anche per lui vale che quando ha utilizzato un sistema concettuale come stampo base ha difficoltà a liberarsene, perché fa anche da attrattore per concetti vicini.                           Questo è uno dei meccanismi della tribalizzazione del nostro comportamento e delle coalescenze ‘ideologiche’ sui social.

3- Un calcolatore quantistico ad acqua*

Agli albori dell’era dei calcolatori c’era la distinzione tra calcolatori analogici e calcolatori numerici (oggi digitali, in omaggio all’inglese digit=cifra, numero). I primi imitavano/simulavano il processo che si voleva studiare, ed era un percorso logicamente rischioso (ne uccide più l’analogia della spada) ma anche intellettualmente affascinante. E per entrambe i motivi è morto prematuramente (anche se in parte risuscitato, forse, nei prossimi calcolatori quantistici).
Quelli numerici si sono semplificati a funzionare con operazioni logiche, realizzati mediante circuitini (porte logiche) che realizzano le principali operazioni : passa corrente, non passa; passa in uno e nell’altro; passa nell’uno o nell’altro….
Ma tutte le porte logiche fatte con la corrente elettrica si possono fare anche coll’acqua e una combinazione di rubinetti/valvole.

calcolatore analogico idraulico russo del '36 (Lukyanov): il primo a risolvere equazioni differenziali alle derivate parziali. Un suo parente postbellico, il MONIAC dell'australiano Phillips, simulava l'economia inglese.

L’unico difetto è che l’acqua è più lenta della corrente. Ma ha anche dei vantaggi: ne possiamo regolare il volume (anche se questo varrebbe anche per l’elettricità ma non viene usato per paura del riscaldamento conseguente), possiamo regolarne il tipo (calda e fredda, o di colori diversi, moltiplicando così il numero dei bit/unità di informazione e il tipo di porte logiche). Se poi utilizziamo l’inclinazione dei condotti e la pressione per modificare le velocità relative, aggiungiamo qualche turbolenza..abbiamo un calcolatore analogico e digitale insieme che compie simulazioni che i supercalcolatori hanno difficoltà a gestire.
Un caso limite è quando le gocce d’acqua sono di volume comparabile al diametro del rubinetto (è un caso studiato in un famoso frattale di Henon): allora il numero di parametri del sistema acqua-rubinetto sale di colpo (prima era regolato solo dalla quantità di acqua, ora anche dal tipo di pareti, dalla forma della goccia…) e il comportamento (rappresentato dalla frequenza delle gocce) diventa imprevedibile (caotico).
È l’equivalente del calcolatore quantistico.
Ed è molto più economico anche se più lento. Però può fare quello che i calcolatori quantistici sanno fare meglio: decrittare le chiavi di sicurezza dei sistemi informatici di banche e Pentagono….(in quanto tempo non ho ancora calcolato).
Chi scrive non si assume responsabilità delle eventuali conseguenze..allagamenti di prova compresi.

Va anche osservato che in caso di mancanza d’acqua, per esempio in un paese desertico, si può anche utilizzare la sabbia, purchè di granulometria controllata.

____________________________________________________________
Paul Davies, the Demon in the Machine, Penguin 2020
Erwin Schrœdinger, What is Life, Cambridge U. Press, 1944
Giulio Tononi et al, Integrated information theory: from consciousness to its physical substrate, Perspectives, 17, 450, 2016

Jim al Khalili, a cura, Alieni, c’è qualcuno là fuori? Bollati Boringhieri, 2017                                   Douglas Adams, Guida galattica per gli autostoppisti (The Hitchhiker’s Guide to the Galaxy), 1978/2005

Paolo Di Marco, An Hydraulic Quantum Computer, Academia.edu/2021

*questa parte è coperta da diritto d’autore, privo di oneri: chiunque può utilizzarla purchè ne citi l’autore; ogni uso improprio comporta una penale da stabilirsi a insindacabile arbitrio dell’autore stesso, cui spetta anche la definizione di uso improprio.