La rivoluzione energetica passa dal riciclo delle terre (non proprio) rare

Durante la rivoluzione industriale il progresso era fatto d’acciaio, il ventesimo secolo era l’era di Mylar, Duraplex e le altre plastiche dai nomi creativi.

Oggigiorno, il progresso è fatto di elementi come neodimio e lantanio, che paiono usciti da un libro di fantascienza.

Questi ed altri elementi, chiamati terre rare, stanno in una di quelle righe appese un po’ così in fondo alle tavole periodiche. Grazie alla loro grande reattività, resistenza, ma anche alle loro proprietà elettriche e magnetiche, le terre rare hanno in mano le chiavi della rivoluzione delle energie rinnovabili.

Prendete ad esempio le turbine eoliche. Spinta dal vento, la turbina fa girare una bobina di metallo circondata da magneti. Muovendosi, la bobina genera una corrente al suo interno, come la dinamo di una bici. Più forti sono i magneti che le stanno attorno, più elettricità si può generare, e i magneti al neodimio (una terra rara) sono i più intensi in circolazione. In ciascun impianto eolico si trovano letteralmente tonnellate di neodimio.

Ma non finisce coi magneti: il lantanio è usato nelle batterie ricaricabili di molte auto ibride o elettriche, le lampade fluorescenti (“al neon”, per capirci) sono foderate di europio e itterbio, i dispositivi elettronici usano tutta una serie di questi elementi, e la lista continua.

Come suggerisce il nome, le terre rare si estraggono dal terreno ma, al contrario di quello che si può pensare, non sono affatto rare: sono più comuni—in numeri assoluti—dell’oro. Più che rare sono sparse, in piccole concentrazioni, un po’ dappertutto. Sulla spinta del grande interesse per queste materie prime, c’è un’attivissima caccia a nuovi depositi, dove è possibile trovarle (solitamente tute assieme) in concentrazioni un po’ più elevate.

Tuttavia, estrarre terre rare ha un impatto ambientale elevatissimo. Secondo Eric Schelter, professore di chimica alla University of Pennsylvania, queste operazioni consumano tantissima energia, e possono generare rifiuti tossici e radioattivi: “L’impatto complessivo dell’estrazione è peggiore per i minerali di terre rare che per altri—dice—sebbene cambi a seconda del tipo di minerale”.

Non sorprende, quindi, che i ricercatori cerchino anche soluzioni che non richiedano miniere. Ad esempio, estrarre i materiali dagli scarti di raffinamento di altri metalli, oppure dalla cenere delle centrali a carbone. O ancora, come ha proposto il gruppo del Prof. Schelter in uno studio, riciclarli. “Le materie prime nei nostri cellulari o auto elettriche hanno un enorme costo energetico ed ambientale, ma non si esauriscono: in linea di principio potrebbero essere usate indefinitamente”, dice.

Anche quando le ricicliamo, separare le terre rare dagli altri materiali non è ad impatto zero. Però, secondo il Prof. Schelter, ogni applicazione usa solo alcune specifiche terre rare per volta, così gli scienziati potrebbero sviluppare processi più semplici e mirati ad estrarre un elemento in particolare.

Il problema più importante, dice, è che riciclare è un lavoro molto costoso per un materiale relativamente economico: “I materiali estratti sono sempre economici: le nuove tecnologie (chimiche ed ingegneristiche) servono solo a rendere il riciclo più competitivo in termini di prezzi”.

Prima di poter annunciare una vera rivoluzione energetica, ce ne servirà una nella produzione di questi elementi preziosi, anche se non così rari.

 

(c) The Munich Eye, all rights reserved.

Foto copertina: Anna Jimenez Calaf/Unsplash.com

Il computer che impara la metropolitana

Come si va dalla stazione di Moorgate a Piccadilly Circus a Londra?

Here, let me help you.

Ecco la mappa: calcolate!

Sembrerà facile (oppure no? la metro di Londra è intricata), ma è una domanda praticamente impossibile per un’intelligenza artificiale. O almeno lo era prima che Google DeepMind (che impiega più di qualche fisico) sguinzagliasse il suo Differentiable Neural Computer (DNC). Secondo gli scienziati di DeepMind, le reti neurali sono bravissime a riconoscere schemi e calcolare la cosa migliore da fare in una data situazione (come ha fatto il loro AlphaGo). Però non sono capaci di mettere assieme sequenze complesse di azioni perché non sanno ricordare.

dnc-cover-image-002-width-1500

Una rappresentazione del DNC: la rete neurale al centro raccoglie i dati che arrivano da sinistra, li immagazzina a destra dove può collegarli con altri che aveva già. Poi può combinarli per produrre la risposta (in basso). Credit: DeepMind

tumblr_nklw7hj3o51t55xupo1_400Volendo potremmo immaginare i dati come ingredienti e la rete neurale come un cuoco un po’ limitato, che può lavorarci solo in sequenza. Perciò non può preparare la pasta per una crostata e metterla da parte mentre fa il ripieno. Chef DNC invece sì: mette la pasta in memoria, fa il ripieno poi finisce.

Anche se non ce ne rendiamo conto, quando pianifichiamo un viaggio in metro immagazziniamo, rielaboriamo e colleghiamo informazioni di continuo. Ad ogni fermata dobbiamo decidere: rimaniamo sulla linea? scendiamo? cambiamo? Poi dobbiamo tener a mente da dove venivamo, dove siamo, e dove stiamo andando. E DNC fa proprio così.

Capirai—si dirà—ci sono app della metro navigatori che lo fanno da anni! Vero, e probabilmente lo fanno meglio. Però sono stati programmati apposta per quello e non sanno fare altro.

DNC no: ha imparato a calcolare percorsi, iniziando da gruppi di punti connessi a caso (grafi, se vogliamo esser pomposi). Una volta memorizzate le diverse connessioni (chi è collegato con chi, in che modo), gli veniva chiesto di calcolare il percorso più breve tra due punti e, di volta in volta, gli si diceva se la risposta era corretta.

graph

Un esempio di punti connessi a caso, tipo quelli con cui si è allenato DNC—solo quelli erano molto più complicati!

Una volta imparato, DNC è riuscito a gestire la mappa della metro di Londra—che assomiglia molto ad un grafo casuale—, ma potrebbe guidarci altrettanto facilmente sui mezzi pubblici di Milano, o pianificare la soluzione ad un piccolo puzzle o rispondere domande complicate su alberi genealogici.

Questo video, ad esempio, mostra DNC che memorizza le connessioni in una famiglia (chi è figlio o fratello di chi) e poi risponde alla domanda “chi è il prozio materno di…?” Ammetto di averci messo un pochino per interpretare la domanda. E sono un umano ragionevolmente competente: provate a chiederlo al vostro navigatore satellitare!

Spesso in intelligenza artificiale, non è importante cosa sappia fare il computer, quanto cosa possa imparare. E DNC ha dimostrato di poter imparare un sacco!

 

Foto copertina: I think we got out at the wrong station, CC-BY-NC-ND The Hamster Factor, via Flickr. Some rights reserved.

Per saperne di più
  • L’articolo su Nature dove viene presentata la scoperta, con dettagli in più su com’è fatto DNC e com’è stato addestrato.
  • Un post sul blog di DeepMind che, in parole più semplici, presenta DNC
  • Volete vedere DNC che risolve uno tra tanti compiti su un piccolo puzzle? eccovi serviti con un video!

Ciambelle teoriche e computer quantistici: il Nobel per la fisica 2016

Alla fine non sono state le onde gravitazionali: il premio Nobel per la fisica del 2016 è andato a David Thouless, Duncan Haldane e Michael Kosterlitz. E fin lì ok. La motivazione già è più complicata:

Per la scoperta teorica degli stati della materia topologici e delle transizione di fase topologiche.

Alcuni stati della materia li vediamo sempre: solido, liquido e gassoso (magari il plasma se fate robe strane). Le transizioni di fase succedono quando, cambiando temperatura o altre condizioni, la materia passa da uno stato all’altro, ad esempio quando si scioglie il ghiaccio. Ma ci sono molti altri stati e molte altre transizioni.

Thouless, Haldane and Kosterlitz

David Thouless, Duncan Haldane e Michael Kosterlitz

Alcune riguardano le proprietà elettriche o magnetiche dei materiali, ed a quelle hanno dato la caccia i nostri premiati novelli. Thouless, Haldane e Kosterlitz hanno studiato gli improvvisi cambi nella conduttanza—l’efficienza nel trasportare elettricità—di alcuni materiali molto freddi (-270 e qualcosa gradi) quando si cambia appena la temperatura. Questo effetto era impossibile da gestire con la normale meccanica quantistica, perché ha a che fare con il comportamento collettivo degli elettroni.

Thouless, Haldane e Kosterlitz, invece, hanno usato la topologia. Nulla a che fare coi roditori, la topologia è una branca della matematica che studia le proprietà che non cambiano stirando, torcendo o piegando le cose, senza bucare, tagliare o incollare. In termini topologici, una ciambella è la stessa cosa di un tubo—li trasformare l’una nell’altro—ma è diversa da una palla, perché dovremmo chiudergli il buco.

Le proprietà topologiche cambiano a salti, perché cose come il numero di buchi devono essere numeri interi (non si può avere mezzo buco…), proprio come quella strana conduttanza. Perciò gli scienziati hanno pensato che trasformazioni topologiche (anche se non proprio l’apparizione di buchi) potessero spiegarla.

topology_steps

Cambi “a scalini” nella topologia causano improvvisi cambi nella conduttanza. Però non si tratta davvero di buchi! Quelli sono solo un esempio di trasformazioni topologiche. Credit: Johan Jarnestad/The Royal Swedish Academy of Sciences

La cosa insolita di questo premio è che le scoperte non hanno ancora un’applicazione pratica: sono “solo teoriche“. Però hanno aperto le porte per la ricerca su materiali che sfruttino queste proprietà, che vanno molto di moda di questi tempi. Questi materiali topologici potrebbero essere anche una via verso il sogno di costruire computer quantistici. Durante la conferenza stampa della premiazione, Haldane ha infatti spiegato che la topologia potrebbe proteggere i delicati segnali in un computer quantistico dai danni provocati da impurità all’interno del materiale stesso.

 

Foto copertina: CC0 Thomas Kelley via unsplash.com

Per saperne di più

La foglia artificiale per l’energia a emissioni zero

L’anidride carbonica (CO2) è probabilmente il più famigerato nemico della nostra atmosfera. Siccome è un potente gas serra, contribuisce pesantemente al riscaldamento globale, l’acidificazione degli oceani e tutto quello che ne consegue. Quindi è comprensibile che gli scienziati abbiano provato diversi sistemi per ridurne la concentrazione, da seppellirla sotto terra a (con un successo sorprendente) trasformarla in roccia. L’unico modo per mantenere i livelli di CO2 sotto controllo in maniera continuativa, però, resta semplicemente produrne meno.

In uno studio pubblicato su Science, un gruppo di scienziati della University of Illinois di Chicago (UIC) e dell’Argonne National Laboratory hanno affrontato il problema con un sistema che, letteralmente, cresce sugli alberi. “Una foglia converte anidride carbonica in zuccheri usando l’energia del Sole”, dice Amin Salehi-Khojin, Assistente Professore al Laboratorio di Nanomateriali e Sistemi Energetici della UIC e autore senior dello studio. “Noi abbiamo costruito una foglia artificiale che usa la stessa energia del Sole per convertire CO2 in syngas—un misto di gas che si può facilmente trasformare in diesel o altri carburanti”. Il tutto senza bisogno di ulteriore energia dall’esterno.

Secondo Salehi-Khojin, le prospettive per le foglie artificiali sono esaltanti. Pensate di collegare un campo di pannelli solari con queste foglie artificiali ad una normale centrale termoelettrica, dice: “La centrale brucia carburante per trarne energia, liberando anidride carbonica. Le foglie la assorbono direttamente dallo scarico e la trasformano in carburante che la centrale può bruciare di nuovo”. Un ciclo del genere azzera le emissioni di CO2 della centrale, senza bisogno di sostituire tutti i macchinari esistenti.

Generare qualsiasi cosa dall’anidride carbonica, però, non è affatto facile perché il gas è famosamente poco reattivo. Durante la fotosintesi naturale, enzimi specializzati hanno il compito di facilitare le reazioni. La foglia artificiale, invece, usa piccolissimi fiocchi (sono larghi appena qualche centinaio di atomi) di un materiale a base di tungsteno. Economico ed efficace, questo materiale è la vera innovazione di questa foglia artificiale. La sua potenza è tale che la foglia immagazzina nel carburante l’equivalente del 5% dell’energia che riceve dal Sole, un risultato impensabile usando materiali normali e più costosi (come argento e platino), e che perfino le piante più efficienti raggiungono a malapena.

Secondo gli scienziati, poi, la foglia artificiale non sta nemmeno lavorando a pieno regime. Per raccogliere l’energia dalla luce, la foglia usa celle fotovoltaiche—lontane cugine di quelle delle calcolatrici, per capirci—che sono relativamente inefficienti. Se le celle raccogliessero meglio l’energia, dicono, ci sarebbero già ora risultati migliori, senza bisogno di ulteriori modifiche.

La ricerca sulle foglie artificiali traccia una strada per un futuro fatto di energie pulite di cui abbiamo disperatamente bisogno. E potrebbe non essere poi così lontano. Secondo Salehi-Khojin, infatti, i primi prototipi su scala industriale potrebbero arrivare in pochi anni. “Ma ci serve una stretta collaborazione con l’industria” dice. “La chimica funziona, dobbiamo solo realizzarlo su scale più grandi, e ottimizzare il progetto e il processo produttivo”.

 

(c) The Munich Eye, all rights reserved.

Foto copertina: CC0 Anthony Rossbach, via unsplash.com

Che diavolo è la fMRI?

Alcune parti del cervello si “accendono” quando proviamo certe emozioni, quando ascoltiamo la musica, o quando risolviamo problemi matematici. Vi sarà sicuramente capitato di imbattervi in notizie simili, visto quanto spesso finiscono sulla stampa. La tecnica che si usa per questi studi (e in tantissimi altri di neuroscienze) si chiama risonanza magnetica funzionale, o fMRI (functional Magnetic Resonance Imaging), che è una gran figata, ma sembra anche avere qualche problema. Prossimamente se ne sentirà parlare abbastanza, quindi vale la pena di capire cos’è.

Una macchina per la risonanza magnetica. CC-BY-NC Penn State, via Flickr.

Cominciamo dalle basi. La risonanza magnetica (quella che ci fanno se ci facciamo male al ginocchio, per capirci) sfrutta campi magnetici e la risonanza, cioè reazioni inusuali di un oggetto o materiale ad uno stimolo di una particolare frequenza.

Il classico esempio è spingere qualcuno su un’altalena: spingendo ogni volta che l’altalena arriva a fine corsa, la facciamo più in alto che spingendo in momenti a caso. Semplificando (molto), la risonanza magnetica usa onde radio per spingere atomi di idrogeno, che abbondano in tessuti ricchi di acqua o grasso, tipo il cervello.

I nuclei di idrogeno hanno spin, una proprietà che li fa reagire ai campi magnetici come una bussola. La macchina per la risonanza magnetica applica un forte campo magnetico, allineando gli spin degli atomi, che poi colpisce brevemente con un’onda radio. Se la sua frequenza è quella giusta (chiamata frequenza di risonanza), l’onda rovescia lo spin di alcuni atomi (non gli atomi stessi però!).

Appena l’impulso termina, tutto torna com’era e gli atomi rilasciano un po’ di energia. Registrando queste emissioni con un’antenna si possono distinguere tessuti con diverse quantità d’acqua, ad esempio, diverse parti del cervello, generandone un'immagine.

Schema semplificato del funzionamento della risonanza magnetica. Gli atomi (palline rosse) si allineano al campo magnetico verde, finché l’onda elettromagnetica viola non li investe, rovesciando i poli di alcuni. Appena possono, gli atomi tornano al loro stato iniziale e rilasciano l’energia, che viene registrata dall’antenna blu. Credit: howequipmentworks.com

Per la fMRI si registrano velocemente tantissime di queste immagini. Analizzandole tutte è possibile capire quali parti del cervello sono più attive in ogni momento perché sono quelle dove viene indirizzato più sangue ossigenato, che reagisce alla risonanza in modo leggermente diverso da quello che sta lasciando il cervello.

L’operazione, francamente geniale, richiede un sacco di analisi statistica. Secondo alcuni studi recenti, servirebbe molta cautela e un intenso scrutinio dei software che fanno questa parte del lavoro. In uno studio, ad esempio, un salmone morto sembrava reagire quando gli venivano mostrate foto di persone.

Non vuol dire che la tecnica non sia valida, ma solo che bisogna stare attenti a cosa succede. Questi studi sono importantissimi per la ricerca, perché ci fanno identificare problemi ed errori.

Solo così possiamo essere sicuri di quello che stiamo facendo e di sfruttare appieno i risultati di tecniche spettacolari come la fMRI.

Per saperne di più

 

Foto copertina: SumaLateral Whole Brain Image, CC-BY NIH Image Gallery, via Flickr. Some rights reserved.

Come funziona un computer quantistico

Probabilmente avete già sentito parlare di computer quantistici. Il vantaggio di leggere la spiegazione qui invece che sentirla da persone molto più affascinanti di me è che non ci sono occhi blu in cui perdersi.

Come dice giustamente il buon Justin, i computer quantistici non usano i normali bit, niente lunghe serie di 0 e 1. Al loro posto usano degli oggetti chiamati quantum bit, o qubit, che possono trovarsi in stati di sovrapposizione, possono essere 1 e 0 contemporaneamente.

L’idea è un po’ la stessa del gatto di Schrödinger che, finché non viene osservato, resta sia vivo che morto.

Il Prof. Andrea Morello dell’Università del New South Wales (Australia), spiega in un’intervista su Veritasium uno dei grandi vantaggi di usare i qubit: immagazzinare informazione in modo efficiente.

Due bit, dice Morello, possono avere quattro combinazioni di valori: 00, 01, 10, 11 e per descriverli sono necessari—spoiler—due bit (il valore del primo e quello del secondo).

Anche due qubit hanno quattro combinazioni. Se andassimo a misurarli, però, li troveremmo ogni volta un diverso in una diversa, e la probabilità di ognuna dipende da come abbiamo costruito la sovrapposizione. Per descrivere la sovrapposizione, quindi, ci serve sapere ciascuna delle probabilità, quindi 4 numeri*.

Sintetizzando, la quantità di informazione nei bit normali aumenta in proporzione a quanti ne usiamo, mentre quella nei qubit aumenta esponenzialmente. Mica male.

Un altro vantaggio dei computer quantistici è che possono manipolare la sovrapposizione stessa, senza misurare i qubit fino alla fine del calcolo. In questo modo possono usare tutte le combinazioni contemporaneamente e portare avanti molte operazioni in parallelo.

Questa abilità è inutile per gli usi quotidiani, ma aiuterebbe molto alcuni calcoli complessi, ad esempio, per capire come si ripiegano le proteine, che è fondamentale per scoprire nuove medicine. Per farlo, però, bisogna calcolare una dopo l’altra tutte le miriadi di combinazioni possibili, che è difficilissimo. I computer quantistici potrebbero simulare tutte le configurazioni in parallelo, sveltendo di molto l’operazione.

In teoria sappiamo praticamente tutto: come manipolare i qubit, che struttura devono avere i circuiti, come devono essere programmati i computer. Costruirli davvero, mettere insieme più di un paio di qubit sembra ancora molto molto complicato (nonostante notevoli recenti passi avanti).

Almeno per ora, tra il dire e il fare…

 

Credit: stefanieshank.tumblr.com

 

*Nota per attenti alla matematica:

Avrete notato che le probabilità devono sommare a 1, perciò si eliminerebbe uno dei numeri necessari per descrivere la sovrapposizione. Non me lo sono dimenticato, ma ho saltato l’argomento per brevità, semplicità e coerenza con quello che dice Morello nell’intervista. Resta il fatto che l’informazione contenuta nei qubit è esponenziale nel loro numero che sia 2^n o 2^n -1 bit.

 

Foto copertina: CC0 Wokandapix/pixabay.com

Il felice incidente che apre la strada per incredibili batterie del futuro

Chi non vorrebbe un telefono sottile, che rimane carico per giorni e mantiene la durata della batteria per anni? Ma le batterie grosse e che non durano nel tempo zavorrano molte tecnologie, al di là dell’elettronica quotidiana, dalle auto elettriche alle centrali fotovoltaiche ed eoliche.

La nanotecnologia ha mostrato sprazzi di una soluzione: le batterie a nanofili, tuttavia ci sono ancora grossi ostacoli da superare. Anzitutto, questi apparecchi futuristici sono ancora molto fragili e inaffidabili. Ma, grazie al lavoro di Mya Le Thai—dottoranda nel laboratorio del Prof Reginald Penner all’Università della California-Irvine—ora abbiamo un metodo promettente per farle durare virtualmente una vita.

Il nocciolo del funzionamento di una batteria è usare reazioni chimiche per trasferire elettricità tra pezzi di materiale conduttore (gli elettrodi) e una soluzione elettrolitica (essenzialmente, un liquido in cui sono disciolti dei sali). Al posto degli elettrodi, le batterie ai nanofili usano migliaia di fili conduttori, ognuno più sottile del filo di una ragnatela. Perciò le reazioni chimiche hanno un sacco di posto a disposizione, anche in piccole batterie. “Il vantaggio principale dei nanofili per lo stoccaggio dell’energia è l’incredibile rapporto superficie:volume, che permette di ottenere un’altissima potenza (ovvero corrente)”, spiega Penner.

Ma, aggiunge, questa potenza ha un costo: “Questa enorme superficie amplifica anche l’effetto di tutti quei processi chimici che erodono la superficie dei fili”. Infatti le reazioni chimiche che danno energia alla batteria sono le stesse che ne consumano gli elettrodi. Così una batteria può passare tra essere scarica e carica solo un certo numero di volte (qualche centinaio di solito) prima di perdere capacità. Che è poi il motivo per cui, ad esempio, i cellulari restano carichi sempre meno man mano che invecchiano.

Per i nanofili è anche peggio: non solo sono più soggetti alla corrosione, come diceva Penner, ma l’elettricità che gli passa attraverso li sforza molto più di quanto farebbe con massicci elettrodi. Perciò, dopo qualche migliaio di cicli di carica-scarica, i fili sono consumati e corrosi e si spaccano. Quando succede, la batteria è completamente inutilizzabile.

Thai stava lavorando su nanofili d’oro rivestiti di ossido per fare dei condensatori, aggeggi in un certo modo simili a batterie con due poli positivi, che immagazzinano carica elettrica senza usare reazioni chimiche. Perciò possono essere caricati e scaricati molto rapidamente. Con sua (e di tutti) sorpresa, gli apparecchi con cui lavorava Thai duravano centinaia di volte più a lungo del normale. Racconta Penner: “Eravamo entrambi esterrefatti quando ha iniziato a provarli e la capacità non è diminuita dopo 10mila cicli, poi 20mila, e infine (settimane dopo) 100mila cicli. A quel punto abbiamo smesso, sebbene i condensatori non avessero mostrato nessuna perdita di carica. Magari l’avessimo programmato!”

I ricercatori hanno riportato la loro scoperta in un articolo pubblicato su ACS Energy Letters. La chiave sembra fosse usare un gel invece di liquido per la soluzione elettrolitica, ma loro stessi ammettono di non avere le idee molto chiare sul perché. Secondo loro, il gel ridurrebbe lo stress meccanico sui fili e, allo stesso tempo, preverrebbe la corrosione: “Pensiamo faccia entrambe le cose”, dice Penner, “il gel ammorbidisce o plastifica il rivestimento, prevenendo le rotture, ma sembra anche rallentare la corrosione in un modo che non abbiamo ancora ben capito”.

Secono Penner, servirà ancora molto lavoro per valutare la fattibilità di batterie basate sui nanofili. Soprattutto, non è ancora chiaro come collegare la miriade di microscopici fili ai due poli della batteria. E usare fili rivestiti, come hanno fatto loro, va bene in laboratorio ma non sarebbe fattibile a livello industriale.

Ciononostante, lo studio mostra che i nanofili possono davvero essere la strada per incredibili batterie leggere e durevoli!

 

(c) The Munich Eye, all rights reserved.

Foto copertina: Steve Zylius/UCI

Si possono prevedere i guasti di internet?

Per sapere quando usare i cubetti di ghiaccio che abbiamo in freezer non ci interessa come e perché l’acqua congela a zero gradi. Basta sapere se sono più caldi o più freddi di zero perché sappiamo che, al di sotto di quel punto critica, l’acqua è instabile e basta una minima spintarella perché congeli.

Anche l’infrastruttura di internet è una complicata rete di parti che interagiscono tra loro, un po’ come molecole d’acqua. E, come per l’acqua, anche per internet ci piacerebbe capire semplicemente in che stato è. Secondo uno studio pubblicato su Nature, per tutte le reti (internet, reti elettriche o addirittura interi ecosistemi) si può trovare una grandezza, una specie di “temperatura”, che ci dice quando diventano instabili.

nature_network

Credit: Nature publishing group

La figura qui sopra mostra l’idea di base: una “funzione di resilienza” raccoglie l’informazione sui rapporti tra le componenti del sistema: chi trasmette o riceve nella rete internet, impollinatori e fiori in un ecosistema, generatori e utenti di una rete elettrica. La funzione dipende da un unico parametro (quel βeff), la “temperatura” del sistema. Conoscendo questa funzione si capisce, indipendentemente dai dettagli, il punto critico della rete, come facciamo con la temperatura dell’acqua.

Il valore della “temperatura” dipende dalla topologia della rete—ovvero chi è collegato (e quanto strettamente) con chi— e cambia aggiungendo o togliendo elementi. Ieri, ad esempio, alcuni nodi TIM si sono guastati, cambiando la topologia della rete e la sua “temperatura” oltre il punto critico, causando il collasso.

Con questo metodo si potrebbero prevedere le condizioni in cui la rete crolla, e come renderla strutturalmente più stabile. Secondo i ricercatori, le reti più stabili non dipendono da singoli nodi vitali (non proprio una novità), hanno alcuni nodi molto connessi e altri meno, e hanno interazioni reciproche piuttosto che gerarchiche.

Non è che ora possiamo andare in giro a prevedere qualsiasi cosa, o che abbiamo risolto i blackout di internet. Anzitutto, anche se il sistema funzionasse, alcune modifiche strutturali sono impossibili o irragionevoli. Poi non è detto che funzioni sempre: questo è un lavoro teorico, che va ancora testato. Sembra andar bene nelle reti studiate nell’articolo, ma potrebbe non funzionare con altre.

 

Foto copertina: internet down 🙁, CC-BY-NC Kirk Lau, via Flickr. Some rights reserved.

1+1 fa davvero 2?

Il nostro mondo quotidiano, tutto sommato, non è troppo complicato per la fisica. Dalle ipotesi (solitamente sbagliate) di Aristotele alle leggi di Galileo e Newton abbiamo un’idea abbastanza precisa di come funziona. Con uno studio pubblicato su Nature Communications, un team internazionale guidato da ricercatori italiani ha dimostrato che il mondo microscopico non è altrettanto intuitivo.

Gli scienziati hanno immerso sfere di vetro grandi qualche millesimo di millimetro in un liquido oleoso. In determinate condizioni, l’agitazione delle molecole del liquido crea una forza tra due sferette vicine, un po’ come se ci fosse una molla a collegarle. Ognuna di loro, perciò, sente la spinta della sua vicina. L’effetto è simile a quello dimostrato in questo video (dal minuto 2 circa).

Intuitivamente, aggiungendo un’altra vicina, la nostra sferetta dovrebbe sentire una forza uguale alla somma della spinta delle due vicine. Dopotutto, se sto spingendo un oggetto—tipo un’auto in panne—e chiedo ad un amico di aiutarmi, la forza totale che esercitiamo sull’auto è semplicemente la somma della mia spinta più la sua.

Ma nel mondo microscopico non è così semplice. Il professor Andrea Gambassi della SISSA di Trieste (e uno degli autori dello studio) spiega che, nei loro esperimenti “la forza complessiva che una particella ‘percepisce’ su di sé è diversa dalla somma delle interazioni con ciascuna delle altre due, se queste fossero presenti da sole”. In pratica, la forza di due sferette assieme è diversa dalla somma delle forze che le due eserciterebbero separatamente. 1+1, questa volta, non fa 2.

La forza tra le sferette in funzione della loro distanza. Le linee rappresentano la somma delle forze che le sferette eserciterebbero da sole, i pallini quella misurata. CC-BY Palatugu et al/Nature.

“Conoscere questi effetti è molto importante, sia dal punto di vista della ricerca di base, sia dal punto di vista pratico, per coloro che studiano come creare micro-macchine”, continua Gambassi. La ricerca fa sempre più progressi verso robot microscopici per eseguire operazioni mediche non invasive. “Per capire come i diversi ‘ingranaggi’ interagiscono questa conoscenza è cruciale, soprattutto in presenza di fluidi”.

 

Foto copertina: Floating Balls, CC-BY-NC sibhusky2, via Flickr. Some rights reserved.

Uno spezzatino di (quasi-)particelle

Ogni elettrone ha uno spin, una specie di bussola interna, che (semplificando un sacco) punta “su” o “giù”. Sparando dei neutroni contro un materiale e vedendo come rimbalzano, si può capire come interagiscono con lo spin degli elettroni e, quindi, come sono orientati gli spin.

In un esperimento con un particolare materiale (il cloruro di rutenio) sembra che gli spin puntino disordinatamente un po’ ovunque.

Un’interpretazione artistica del liquido di spin. In questo stato, gli elettroni sono orientati in modo disordinato, come le molecole di acqua in un bicchiere. Credit: Francis Pratt / ISIS / STFC

Questo nuovo stato, detto liquido di spin, appare se gli elettroni si “spezzano” in particelle: i fermioni di Majorana.

C’è solo un piccolo problema: gli elettroni non possono spaccarsi in parti perché sono un blocco unico. Come fanno allora i fermioni di Majorana ad esistere?

Strettamente parlando, non esistono. Gli elettroni non si spezzano davvero, però si comportano come se lo facessero. Perciò i fermioni di Majorana sono chiamati “quasi-particelle”: entità utili da includere nei modelli, ma impossibili da trovare in natura.

I fermioni di Majorana non erano mai stati osservati prima, ma hanno importanti applicazioni per i superconduttori e i computer quantistici.

 

Foto copertina: CC0 ikinitip, via pixabay.