Categoria: scienza e tecnologia

I premi Nobel per le scienze anno 1904

Chimica:

Premio assegnato a Sir William Ramsay per la scoperta dei gas nobili e la loro corretta collocazione nel sistema periodico degli elementi.

Sir William Ramsay

Chimico inglese (Glasgow 1852-High Wycombe, Buckinghamshire 1916). Studiò nella sua città natale e poi in Germania, a Tubinga. Tornò a Glasgow e nel 1880 ebbe la cattedra di chimica all’Università di Bristol. Nel frattempo le sue prime ricerche di chimica organica lasciavano il posto a quelle di chimica inorganica e di chimica fisica a cui, per la scoperta dei gas nobili, è legata la sua fama. Dal 1887 fu professore all’Università di Londra, ove rimase fino al 1913; e proprio alla sua permanenza a Londra sono legate le sue maggiori scoperte.

Trovò metodi per estrarre completamente l’ossigeno e l’azoto dall’aria atmosferica, e così stabilì la presenza in essa di un altro gas sconosciuto. Nel 1894, con J. W. Rayleigh, annunciò la scoperta di questo nuovo gas (argo) dovuta alla precisione dei metodi adottati. Nel 1895 nel minerale cleveite scoperse un gas con uno spettro simile a quello trovato già precedentemente nel Sole: anche l’elio dunque era scoperto. La conseguente scoperta con M. W. Travers del neon, del cripto e dello xeno seguì pressocché immediatamente (1898).

Ebbe vari riconoscimenti della sua attività, fra cui il premio Nobel per la chimica per la scoperta dei gas nobili dell’aria e per la determinazione del loro posto nel sistema periodico.

Fisica

Premio assegnato a John William Strutt Rayleigh per la scoperta di un nuovo gas dell’atmosfera, l’argo.

John William Strutt Rayleigh

Fisico inglese (Langford Grove, Essex 1842-Witham, Essex 1919). Rayleigh studiò all’Università di Cambridge. Qui, nel 1879, successe a Maxwell come direttore del Cavendish Laboratory. Compì studi sul potere risolutivo degli strumenti ottici, sui fenomeni di superficie dei liquidi e dei solidi.

Si deve a Rayleigh la determinazione precisa dell’unità di carica elettrica, l’ohm.

Nel campo dell’acustica pubblicò un celebre libro. The Theory of Sound (La teoria del suono).

Di Rayleigh è la scoperta di un nuovo gas dell’atmosfera, l’argo, isolato anche da W. Ramsay. Tale scoperta gli fruttò il premio Nobel per la fisica.

Gli studi sulla diffusione della luce solare da parte dell’atmosfera portarono Rayleigh alla enunciazione della nota legge di diffusione, che spiega il colore blu del cielo.

Associata al nome di Rayleigh c’è anche la legge di Rayleigh-Jeans sulla distribuzione spettrale di energia nella radiazione di un corpo nero. Tale legge concordava con i dati sperimentali solo per grandi lunghezze d’onda. Fu sostituita dalla legge di Planck.

Medicina

Premio assegnato a Ivan Petrovic Pavlov per il suo lavoro sulla fisiologia della degestione.

Ivan Petrovic Pavlov

Fisiologo russo (Rjazan 1849-Pietroburgo 1936). Laureato in medicina all’Università di Pietroburgo (1883), lavorò in Germania con i due grandi fisiologi K. Ludwig e R. Heidenhain.

A partire dal 1891 Pavlov si dedicò a ricerche sulle funzioni delle ghiandole gastriche, per le quali, dopo la pubblicazione delle Lezioni sul lavoro delle principali ghiandole digestive (1887), ottenne il premio Nobel per la medicina.

Dalle ricerche sulla digestione derivò direttamente la maggior scoperta di Pavlov, quella dei riflessi condizionati, ai quali il suo nome restò legato e che gli permisero di fondare una psicologia obiettiva. Fin dal 1897 Pavlov si trovò alle prese con quelli che chiamava allora “riflessi psichici”. Lavorando sui cani per ottenere la salivazione, poneva nelle fauci di questi della polvere di carne.

La polvere di carne determinava un orco riflesso che stimolava le ghiandole salivari per cui si aveva la salivazione, fatto, del resto ben noto.

Questo era un riflesso innato, assoluto. A poco a poco anche la sola vista o il solo odore della polvere di carne finirono per determinare lo stesso effetto di salivazione. La novità consistette nel rifiuto da parte di Pavlov di spiegare il fenomeno in termini antropomorfici, riferendosi al desiderio del cane.

Pavlov cercò invece di applicare, a riflessi più complessi dei riflessi assoluti, metodi obiettivi propri della fisiologia, e nel risolvere conseguentemente un fatto psichico, la salivazione per effetto del desiderio, in un fatto fisiologico perfettamente determinato.

Ecco la strada seguita da Pavlov. Questi “riflessi a distanza” si svolgono come se una reazione assoluta (la salivazione, per esempio) si connettesse da se stessa a una stimolazione che ordinariamente non la provoca. Pavlov cercò allora di costruire tali riflessi artificialmente, connettendo per un certo tempo allo stimolo normale (il gusto della carne, per esempio) un altro stimolo, ed ebbe successo con un celebre esperimento associando un certo numero di volte la presentazione della carne a un suono di campanello, alla fine il solo suono del campanello determinava la salivazione, che prima certamente non produceva.

Questa scoperta, cui Pavlov dette appunto il nome di “riflesso condizionato” fu presentata per la prima volta al Congresso Medico di Madrid nel 1903.

Dal 1905 Pavlov si dette a studiare con i suoi allievi la modalità di formazione e di azione dei riflessi condizionati. Si scoprì così che essi si instaurano più facilmente se il nuovo stimolo precede lo stimolo ordinario cui viene associato, che con il tempo tendono a scomparire se non vengono utilizzati, nel qual caso si riattivano; che un nuovo stimolo associato allo stimolo condizionato inibisce il riflesso, mentre un terzo lo ristabilisce per controinibizione, ecc.

Già dal 1910 Pavlov aveva sottolineato che non occorreva introdurre delle idee psicologiche per studiare le funzioni nervose più elevate.

La strada verso una nuova scuola psicologica, il comportamentismo, era aperta.

Scienza – La Semiotica – 2

Una scienza per comunicare

Fin qui le basi, il materiale di lavoro della semiotica, quelle che de Saussure avrebbe chiamato “unità minime”. Da questo punto di partenza, i semiologi hanno elaborato i loro strumenti… e una terminologia spesso incomprensibile per i non addetti ai lavori, infarcita di “attanti”, “apparati autoriali”, “soggetti enunciatari”, “ipertesti”, “dimensione pragmatica” e così via.

Ecco un caso concreto di analisi semiotica, sia pure semplicissimo.

Il nipotino Luigi mi manda una cartolina con scritto “nonno Cosimo ti voglio bene”. Siamo di fronte a un testo, che per la semiotica non è composto solo della frase ma da tutta la cartolina. Esiste un soggetto empirico trasmittente (Luigi) e uno ricevente (nonno Cosimo): poi, nell’ordine, un soggetto enunciatore modello (l’idea che il nonno ha del suo nipotino); un soggetto dell’enunciato (la scritta affettuosa), un soggetto enunciatario (il nonno o altri che leggono la cartolina… una cartolina dovrebbe essere privata, ma si deve tenere conto della possibilità che venga letta anche da altri). Manca qualcosa? Sì, il soggetto ricevente modello, o “lettore implicito”, ossia l’idea che il nipote ha del nonno facile alla commozione, e non abbiamo ancora detto nulla sulla complessità del testo espresso da una qualunque cartolina, indipendentemente dal messaggio: vi entrano in gioco codici grafici, economici (francobollo di posta prioritaria o normale?), sociali (raffinatezza della foto, luogo scelto…). Nel messaggio trovano posto contesti: se vai all’estero come fai a non mandare una cartolina al nonno? E poi ci sono i precedenti che non tutti i possibili soggetti enunciati capirebbero… il nonno, e solo lui, può cogliere in quel “ti voglio bene” una traccia d’ironia…

A questo punto c’è da porsi una domanda: perché? Perché darsi tanta pena per analizzare una cartolina? Risposta: lo scopo della semiotica è proprio quello di studiare “tutto” il significato di un atto comunicativo, che si tratti di una cartolina, di un discorso del Presidente degli Stati Uniti, dei Promessi Sposi o di un piercing all’ombelico. A questo scopo (e non per complicare la vita a se stessi e ai loro studenti) gli studiosi di semiotica hanno a poco a poco elaborato modelli di analisi sempre più complessi, in grado di descrivere tanto la nostra cartolina quanto un quadro o un comizio politico.

Questi modelli servono dunque a studiare 3 elementi della comunicazione: i segni, intesi come qualcosa che rinvia a qualcos’altro, ed è interpretato come tale; il testo, inteso come il “luogo” dove avviene la comunicazione e l’interazione tra testo e destinatario. Continua

Scienza – La Semiotica

Una scienza per comunicare

Nata nel 1913, la semiotica (scienza dei segni), studia i modi, gli strumenti, le convenzioni e anche i limiti della comunicazione.

A cosa serve questa disciplina spesso nominata e così poco spiegata? Si tratta, è vero, di una scienza giovane, a fatica le si può dare poco più di un secolo di vita, ma mentre tutti più o meno saprebbero dire qualche parola sulla psicanalisi, nata nello stesso periodo, difficilmente capita di sentire due vicini di ombrellone confidarsi il nome della scuola semiotica preferita e del semiologo di fiducia.

Eppure, senza saperlo, i primi semiologi esistevano già ben più di duemila anni fa. La parola semiotica deriva infatti da semeion, in greco segno, e la si può definire scienza dei segni: è la disciplina che studia – in ogni aspetto – i simboli utilizzati dagli uomini per comunicare tra loro, dai più evidenti (le parole, i numeri, i segni convenzionali…) ai più marginali (i cartelli stradali, gli ornamenti del corpo, i colori…)

Fino a qualche tempo fa si parlava di semiologia (logos significa anche studio), ma poi si è preferito italianizzare il termine americano semiotics, da cui semiotica.

Che la si chiami semiologia o semiotica, comunque, questa disciplina esiste da quando l’uomo ha cominciato a riflettere sulla comunicazione e su ciò che la rende possibile: l’interpretazione dei segni.

Parlavano di segni Platone e Tommaso d’Aquino, Aristotele e gli Stoici. D’altra parte la vera e propria disciplina che si occupa del “segno” nasce quando un linguista svizzero Ferdinand de Saussure, scrive il Corso di linguistica generale pubblicato nel 1913 ponendo le basi della semiotica come disciplina autonoma

Abbiamo visto quando nasce la semiotica e di che cosa si occupa. Resta la domanda fondamentale: a che cosa serve? Non bastavano la linguistica, la psicologia, l’etologia umana? Dopotutto, tutte queste discipline si occupano di comunicazione. Certo, risponderebbe un semiologo, ma lo fanno in modo parziale, senza poterne cogliere le regole e le metodologie generali. E in un periodo storico in cui la comunicazione umana si fa di anno in anno più complessa, articolata e spesso confusa, una scienza che ne chiarisca gli aspetti essenziali appare indispensabile.

Il presupposto della semiotica è che tutto sia comunicazione, quindi che tutto sia “segno”, purché ci sia qualcuno in grado di recepire questa comunicazione. Si comunica attraverso il modo in cui ci si veste (con eleganza o trascuratezza, di nero o di rosa…), quando si canta, quando ci si gratta il naso, oltre che, naturalmente, quando si parla o si scrive. Sono comunicazione i cartelli stradali, le insegne dei negozi, i cartelloni pubblicitari, così come lo sono i libri, i giornali, i graffiti sul muro, i film…

Il primo livello di classificazione dei segni è quello della volontarietà: molti segni presuppongono infatti l’intenzione di comunicare, per quanto non sempre evidente. Anche grattarsi il naso è comunicazione volontaria, perché segnala rilassamento – forse non lo si farebbe ad un ricevimento di corte – o disagio, se il gesto manifesta un tic. Esistono però anche i segni non volontari, come le nuvole che annunciano il temporale, le rondini che (lo diceva già Aristotele) indicano l’arrivo della primavera, il fumo che rimanda a un fuoco…

Tutti i segni comunicano, anche senza che ci sia la volontà di comunicare: l’importante è che ci sia qualcuno che li recepisca. Ma che cos’è un “segno”? Secondo la definizione classica, il segno è “qualcosa che sta al posto di qualcos’altro”, ossia qualcosa (il fumo, l’atto di grattarsi, le rondini) che non rimanda solo a se stesso, ma ad altro: il fumo rimanda al fuoco, il grattarsi al disagio, le rondini alla primavera. Tutti questi segni, quindi, non comunicano solo ciò che sono ma anche qualcos’altro. Continua domani.  

Enigmi frizzanti – I segreti delle bollicine, tra fisica, chimica e gastronomia – 2

Se le bollicine nelle bevande gassate sono spesso artificiali, sono invece naturalissime quelle dello spumante. Per ottenere vini spumanti, infatti, si aggiungono al vino lieviti naturali e zucchero, che portano alla formazione di anidride carbonica. Le bollicine sono un indice di qualità: i sommelier ne valutano il numero e la “grana”, cioè le dimensioni, oltre alla persistenza. La fontanella di bolle che risale nel calice ha addirittura un nome tecnico: perlage. Più le bollicine sono piccole e numerose, e il perlage persistente, più lo spumante è pregiato.

A volte le bollicine si sprigionano da solidi: basta aggiungere acqua. E’ il caso dei medicinali in compresse effervescenti, delle pastiglie di digestivo o della magnesia. Tutti questi preparati contengono cristalli di un acido, generalmente citrico, e bicarbonato di sodio. Questi, in ambiente secco, possono convivere senza reagire chimicamente. Ma basta aggiungere acqua perché s’inneschi una reazione che produce, tra l’altro, anidride carbonica. Lo stesso fenomeno avviene con gli sciogli-calcare: gli acidi in essi contenuti attaccano il carbonato di calcio che compone il calcare, e nella reazione si libera anidride carbonica: è questa a creare l’effervescenza sulla macchia di calcare mentre viene sciolta.

E le caramelle frizzanti, che fanno le bollicine in bocca? Anche qui tra gli ingredienti ci sono cristalli di acido citrico e bicarbonato, che sono attivati dalla saliva.

Ci sono poi effervescenze dovute all’applicazione di una forza. Basta scuotere una bottiglia piena d’acqua: quando ci si ferma, si nota una serie di bolle che risalgono. Questo succede perché agitando il flacone si rompe la superficie del liquido che, richiudendosi, ingloba porzioni di aria. L’aria è un gas poco solubile, quindi forma subito bolle che risalgono in superficie. Una minima parte resta disciolta e si coagula in bollicine solo in seguito (è il caso del bicchiere d’acqua lasciato durante la notte sul comodino).

Sono fatte di aria inglobata anche le bolle della scia delle barche. La rotazione dell’elica richiama aria, parte della quale rimane intrappolata quando la superficie dell’acqua si richiude. C’è però un altro meccanismo coinvolto, che è quello della cavitazione: la formazione, in un liquido, di cavità piene di vapore del liquido stesso o di altri gas. La velocità delle eliche fa diminuire la pressione dell’acqua a contatto con la pala e produce queste bolle di cavitazione, che poi implodono provocando l’erosione di eliche e turbine.

Le bollicine sono coinvolte anche in un fenomeno fisico tuttora inspiegato, quello della sonoluminescenza: un’onda sonora della giusta intensità e frequenza fa implodere le bollicine presenti nell’acqua, con la contemporanea produzione di un lampo luminosissimo. All’interno di queste bollicine che implodono, si ritiene che la temperatura arrivi a migliaia o forse milioni di gradi. Queste bollicine diventano per un istante micro-reattori di reazioni chimiche, innescate dall’energia sonora, e il cui unico prodotto visibile è la luce. Dalle bollicine, possiamo ancora aspettarci molte sorprese.

Enigmi frizzanti – I segreti delle bollicine, tra fisica, chimica e gastronomia

Sono insapori, ma indispensabili nei brindisi. Sono innocue, eppure corrodono le eliche. Sono ben note, eppure al centro di un fenomeno ancora misterioso come la sonoluminescenza.

Sono impalpabili, non hanno sapore e tendono a dissolversi nell’aria. Eppure, senza di loro i brindisi (ma anche i pranzi di tutti i giorni) non sarebbero più gli stessi. Le bollicine sono ingredienti fondamentale di tante bevande, dall’acqua minerale allo champagne. E sono amate: gli italiani ogni anno bevono circa 900 milioni di litri di bibite frizzanti, 135 milioni di bottiglie di spumanti e più di 3 miliardi di litri di acqua gassata.

Quanto contano, le bollicine? Moltissimo, a giudicare dai precedenti storici: già Plinio il Vecchio, nel I secolo d. C., vantava le sue scorte di acqua naturalmente effervescente.

Liscia o gassata?

“Liscia o gassata?” ci viene chiesto al ristorante. La differenza è, appunto, in un gas: l’anidride carbonica sciolta nel liquido. A una temperatura di 20 gradi, in un cm3 di acqua si possono sciogliere ben 0,88 cm3 di anidride carbonica, contro solo 0,01 cm3 di altro gas come l’aria. Nel liquido (per esempio in una bottiglia di acqua frizzante ancora tappata), l’anidride carbonica è in forma di microbolle che noi non vediamo: queste tendono a fondersi tra loro in sfere più grandi, formando appunto le bollicine, non appena l’apertura della bottiglia crea una depressione. Il flusso di anidride carbonica continua finché la bibita non è completamente sgassata.

All’acqua, le bollicine possono essere aggiunte artificialmente, introducendo anidride carbonica dopo il prelievo dalla sorgente, ma questo processo avviene anche in natura, quando l’acqua attraversa minerali che rilasciano anidride carbonica. Il risultato è un’acqua naturalmente frizzante.

Alcune fonti “effervescenti” sono conosciute fin dall’antichità e vengono sfruttate ancora oggi. E’ il caso della sorgente Ferrarelle, a Riardo (Caserta): avevano provato la sua acqua Vitruvio, Cicerone, Plinio il Vecchio. Anche le sorgenti dell’acqua di Nepi (Viterbo) erano utilizzate dai Romani, tanto che la famiglia dei Gracchi aveva fatto costruire qui le terme.

Le fonti gassate furono le uniche produttrici di bollicine fino al 1767, quando il medico inglese Joseph Priestley inventò la prima “acqua carbonata”, cioè con l’aggiunta di anidride carbonica. Qualche decennio più tardi scoppiò la moda delle bevande gassate. In particolare negli Usa, dove si diffusero le “soda fountain”, gli impianti per acqua gassata alla spina. Si iniziarono a preparare bibite aromatizzate con erbe e spezie, e nel 1886 John S. Pemberton, di Atlanta, inventò la Coca-Cola.

Questione di gusti

Ma perché a qualcuno le bevande gassate piacciono tanto? Un motivo è che in presenza di bollicine la salivazione aumenta: la bevanda gassata sembra così più dissetante. Cosa accade, poi, bevendo le bollicine? La temperatura più alta all’interno del corpo e l’acidità dei succhi gastrici diminuiscono la capacità dell’anidride carbonica di restare disciolta, infatti non a caso in un liquido acido come la Coca-Cola, l’anidride carbonica viene espulsa velocemente all’apertura della bottiglia, e forma la spuma: il gas ancora presente nel liquido viene così liberato. L’anidride carbonica introdotta nello stomaco, comunque, non viene digerita ma espulsa con l’eruttazione: di conseguenza, le pareti dello stomaco si rilasciano dando una sensazione, falsa, di avvenuta digestione. Ecco da dove nasce l’errata convinzione che le bevande gassate favoriscano la digestione. Anzi a lungo andare possono arrecare danni all’apparato digerente.

L’acqua gassata dilata le pareti dello stomaco, come se questo fosse pieno di cibo e lo induce a secernere troppi succhi gastrici, che possono intaccarle. L’acqua gassata non è invece dannosa nelle diete dimagranti, semmai l’anidride carbonica provoca gonfiore. Continua domani.

I Grandi della Scienza

Archimede – 1

Essendo perpetuamente incantato dalla sua sirena personale, vale a dire dalla sua geometria, tralasciava di mangiare e bere e non si prendeva per nulla cura della sua persona; era spesso portato a forza ai bagni, e quando era là si metteva a tracciare figure geometriche nelle ceneri, e a disegnare righe sul suo corpo quando veniva unto, rimanendo in uno stato di grande estasi e divinamente posseduto dalla sua scienza.

Plutarco, in G. F. Simmons, Calculus Gems

Gli studi di Archimede abbracciavano vasti campi della scienza, tuttavia la sua fama resta essenzialmente legata alle scoperte di geometria e alle non meno celebri scoperte di idrostatica.

L’opera e il mito

L’opera di Archimede fu presto dimenticata e la sua figura assorbita dal mito. Ciò si protrasse fino al XV secolo, quando l’invenzione della stampa riportò in primo piano il pensiero scientifico del grande siracusano.

La figura di Archimede è tanto nota quanto poco è nota la sua opera. Da questo punto di vista ha molti tratti in comune con quella di Einstein: tutti lo conoscono come il padre della fisica moderna, ma sono assai più noti i suoi aneddoti e le sue battute che la teoria della relatività.

Archimede entrò prestissimo nel mito attraverso i resoconti degli storici antichi (Polibio, Livio; Plutarco e così via) che raccontarono di come difese la sua Siracusa dagli assalti dei Romani durante la seconda guerra punica. Col passare dei secoli, la sua figura è diventata quella del “buon” sapiente, dell’inventore geniale ma decisamente strambo: tutti conoscono la famosa frase “Datemi un punto d’appoggio e solleverò il mondo” o la storiella di “Eureka! Eureka!”. Nell’immaginario collettivo Archimede è il genio distratto (al punto di correre nudo per le strade di Siracusa), che inventa cose “impossibili” come gli specchi con cui avrebbe bruciato le navi romane, che fa scoperte mirabolanti mentre fa il bagno. L’Archimede Pitagorico di Walt Disney incarna bene questa immagine.

Questa mitologia su Archimede cominciò a formarsi molto presto, quasi subito dopo la sua morte. Parallelamente al diffondersi della sua fama come ingegnere e tecnologo, la sua opera matematica cominciò a cadere nell’oblio. A ciò contribuì, in qualche misura, Archimede stesso. I suoi lavori dedicati alla quadratura del cerchio e della parabola, allo studio delle spirali, al volume della sfera e di altri corpi rotondi, allo studio dei centri di gravità e dei problemi del galleggiamento erano scritti tutti in forma di brevi trattati, indirizzati ai matematici della scuola di Alessandria d’Egitto, la grande capitale culturale del mondo ellenistico. Il loro stile ellittico, la densità di riferimenti interni, la difficoltà delle dimostrazioni non giovarono certo alla loro diffusione, anche fra gli stessi matematici. Già Erone (I secolo d. C.) sembra non conoscerli tutti; è certo che Eutocio (studioso bizantino del VI secolo che scrisse un commento ad alcune opere di Archimede) non disponeva più di alcuni suoi testi. Si salvarono da questo oblio le sue opere più “pratiche”: la Misura del cerchio, la Sfera e il Cilindro, parti della sua opera di statica. Sono queste le opere venute a conoscenza degli Arabi, e che la tradizione arabo-latina diffuse attraverso parafrasi e rifacimenti nel mondo latino. Fu solo nel IX-X secolo che a Bisanzio vennero radunati e copiati i testi di quello che oggi è noto come “corpus archimedeo”. E fu solo nel 1269 che il domenicano Guglielmo di Moerbeke tradusse dal greco in latino le sue opere.

Ma nonostante la traduzione di Moerbeke, il Medioevo il primo Rinascimento continuano a disinteressarsi dell’opera matematica di Archimede. Nei testi medievali il suo nome viene addirittura storpiato, diventa Arsamithes, Archimenedes.

L’interesse continua ad appuntarsi sull’aspetto “pratico”, meraviglioso della sua opera. Verso il 1450, tuttavia, la sua opera viene nuovamente tradotta in latino e comincia a essere studiata. Regiomontano, matematico e umanista tedesco, la corregge e la prepara per un’edizione a stampa che purtroppo non riesce a pubblicare prima della sua morte (1472). Continua – 1

I premi Nobel per le scienze anno 1903

Chimica

Premio assegnato a Svante August Arrhenius per la formulazione della teoria della dissociazione elettrolitica.

Svante August Arrhenius fisico e chimico svedese nato a Vik, Uppsala nel 1859 e morto a Stoccolma nel 1927. Elaborò e descrisse la teoria della dissociazione elettrolitica è inoltre autore dell’equazione, che prende il suo nome, nella quale viene messa in relazione la velocità di una reazione chimica con l’aumento della temperatura. Per i suoi contributi allo sviluppo della chimica gli fu assegnato il premio Nobel e a Stoccolma fu fondato per lui l’Istituto Nobel per la chimica fisica.

Fisica

Premio assegnato a Henri Becquerel e a Pierre e Marie Curie per la scoperta delle radiazioni naturali emesse dal polonio e dal radio.

Henri Becquerel fisico francese nato a Parigi nel 1852 e morto a Le Croisie, Loire-Atlantique nel 1908. Studiò all’Ecole polytechnique e alla Ecole des ponts et chaussées, conseguendo il dottorato nel 1888 con una tesi di ottica.

Divenne quindi membro della Académie des Sciences nel 1889 e docente di fisica dapprima al Museo di Storia Naturale nel 1892 e poi all’Ecole polytechnique nel 1895.

I suoi interessi riguardarono dapprima la fosforescenza e la fluorescenza 1882-1892 e, per tale ragione, si occupò di certi sali di uranio scoprendo che questi impressionano la lastra fotografica  mediante raggi detti appunto raggi Becquerel.

La produzione di tali raggi risultava dipendere solamente dagli atomi di uranio presenti nella specie chimica in esame e non da altre variabili, quali, per esempio, la temperatura.

A differenza di quelli luminosi, tali raggi non venivano riflessi e, come i raggi Rontgen, scaricavano i corpi elettrizzati posti nelle vicinanze. A tale fenomeno, legato non solamente alla presenza dell’uranio o del torio ma anche – e in forma più intensa – del polonio e del radio o del lattinio, fu dato il nome di radioattività a opera dei coniugi Curie.

Contemporaneamente a F. Giesel e a E. Rutherford (1899) Becquerel distinse le radiazioni a, fermate da un foglio di alluminio, dalle radiazioni B, più penetranti e da lui in seguito (1908) identificate con i raggi catodici, mentre per le radiazioni Y egli confermò i risultati di P. Villard (1900). Le prime due radiazioni furono anche separate per azione di un campo magnetico sia di Becquerol, che usava il rodio, sia da Giesel che si serviva del polonio. Egli si interessò anche di altri problemi fisici, quali l’azione del campo magnetico terrestre sull’atmosfera (1894) e l’effetto di un campo magnetico sul piano di polarizzazione della luce, scoprendo così la relazione tra il potere rotatorio e l’indice di rifrazione del mezzo attraversato dalla radiazione luminosa.

Pierre e Marie Curie coniugi francesi famosi nella storia della fisica per l’importanza delle loro scoperte scientifiche. Pierre nato e morto a Parigi 1859-1906 pur non avendo seguito in gioventù studi regolari, conseguì il baccalaureato e una licenza in fisica alla Faculté des Sciences di Parigi. Notato per la sua abilità come sperimentatore, fu assunto dalla Faculté come tecnico di laboratorio e in questa veste compì le sue prime ricerche sull’irraggiamento del calore e, in collaborazione con il fratello Jacques Paul, che era tecnico nel laboratorio di mineralogia, sulle proprietà dei cristalli, con le quali ultime i due Curie evidenziarono il fenomeno della piezoelettricità e misero a punto alcuni precisi strumenti di misurazione. Negli anni successivi Pierre Curie proseguì le ricerche cristallografiche iniziandone altre sulle proprietà magnetiche dei corpi in funzione della temperatura. Soltanto nel 1894 lasciato il modesto incarico di tecnico, fu nominato professore; nello stesso anno conobbe una giovane chimica polacca trasferitosi da tre anni a Parigi, ove conduceva anch’essa ricerche sul magnetismo. Marie Sklodowska nata a Varsavia nel 1867 morta a Sancellemotz, Haute-Savoie nel 1934, nata da famiglia di insegnanti, era riuscita grazie alla sua intelligenza e alla sua perseveranza a procurarsi una buona preparazione chimica pur fra le grandi difficoltà dovute sia alle sue modeste condizioni familiari sia alla sua condizione di donna che, nella Varsavia sottoposta al dominio zarista, le aveva precluso l’accesso all’università.

La conoscenza con Pierre Curie, seguita a breve distanza dal matrimonio nel 1895, rappresentò l’inizio di una fruttuosa collaborazione scientifica che prese le mosse dalle ricerche di Marie la quale, interessatasi del fenomeno di emissione di raggi da parte dell’uranio, scoperto nel 1896 da Henri Becquerel, aveva constatato, grazie ad alcuni strumenti messi a punto da Pierre, in primo luogo che l’intensità della radiazione emessa era funzione della quantità di uranio e, in secondo luogo, che alcuni minerali di uranio (pechblenda, autunite, calcolite) emettevano una quantità di radiazione superiore a quella di altri. Marie attribuì questo fatto contraddittorio alla presenza nel minerale di un elemento sconosciuto e a sua volta emettente radiazioni e, come la stessa Marie doveva definirlo, “radiattivo”. Gli elementi, in realtà, erano due, il polonio e il radio, dei quali i Curie annunciarono la scoperta nel 1898. Dopo un pluriennale lavoro di purificazione di ingenti quantità di pechblenda. Questo lavoro e la successiva determinazione di diverse proprietà fisiche e chimiche del radio valse ai Curie l’attribuzione di metà del premio Nobel.

Medicina

Premio assegnato a Niels Rjberg Finsen per il suo contributo al trattamento delle patologie, in particolar modo il lupus eritematoso sistemico (LES) con fasci di luce concentrata.

Niels Rjberg Finsen medico danese nato a Thorshavn, Faroer nel 1860 e deceduto a Copenaghen nel 1904. Studio a Reykjavik, poi a Copenaghen ove si laureò nel 1890. Nel 1893 fu nominato professore di anatomia. Le sue ricerche si indirizzarono particolarmente allo studio degli effetti della luce sugli organismi viventi.

Introdusse la fototerapia o finsenterapia, specie nel lupus eritematoso (1897), e la terapia con raggi ultravioletti (mediante la lampada scoperta da Aarons nel 1892.

Studiò le proprietà battericide dei raggi ultravioletti.

I premi Nobel per le scienze – anno 1902 – (2)

Chimica

Premio assegnato a Emil Fischer per le sue ricerche nel campo della chimica organica.

Emil Fischer – chimico tedesco nato a Euskirchen nel 1852 e deceduto a Berlino nel 1919. La sua attività si rivolse alla ricerca sperimentale nel campo della chimica organica.

Una delle principali scoperte (1875) di fischer fu l’idrazina; essa con l’acido nitrico come comburente, fu usata come propellente liquido durante l’ultima guerra mondiale nel primo aereo a razzo tedesco. Gli fu conferito il premio Nobel per le ricerche sugli zuccheri e sulla sintesi delle purine.

Fisica

Premio assegnato a Hendrik Antoon Lorentz e a Pieter Zeeman per le ricerche sulla rifrazione della luce su base puramente elettromagnetica.

Hendrik Antoon Lorentz – Fisico olandese nato a Arnhem nel 1853 e deceduto a Haarlem nel 1928. Professore a Leida dal 1878 al 1912. Già nella tesi del dottorato nel 1875 fece un importante lavoro trattando per la prima volta la riflessione e la rifrazione della luce su base puramente elettromagnetica. Agni inizi degli anni Novanta (dell’800) sviluppò la famosa teoria secondo la quale tutti i fenomeni elettromagnetici sono determinati dal moto di elettroni. I risultati negativi dell’esperimento di Michelson e Morley per la rivelazione dell’etere lo condussero a sviluppare le sue famose trasformazioni per le grandezze spaziali e temporali fra sistemi di riferimento in moto relativo uniforme. La teoria della relatività ristretta di Einstein doveva in seguito fornire un significato fisico alle trasformazioni di Lorentz.

Pieter Zeeman – Fisico olandese nato a Zonnemaire, Zelanda nel 1865 e deceduto ad Amsterdam nel 1943. Studiò e si laureò a Leida, ove insegnò fino al 1900, anno in cui divenne professore di fisica presso l’Università di Amsterdam; dal 1908 al 1935 fu direttore dell’Istituto di fisica di quell’università. La sua fama è particolarmente legata all’effetto che da lui prese nome (spettroscopia di emissione atomica). L’interpretazione di questo fenomeno consentì a Zeeman di determinare, nel 1896, l’esistenza e la carica dell’elettrone.

Medicina

Premio assegnato a Ronald Ross per il suo lavoro sulla malaria.

Ronald Ross – Medico inglese nato ad Almora, India 1857 e deceduto a Putney Heat, Londra nel 1932. Medico di servizio in India, si dedicò a studi sulle malattie tropicali e soprattutto, nel campo della batteriologia, sulla malaria. Dimostrò l’importanza di un tipo di zanzara come veicolo della trasmissione della malattia tra gli uccelli e formulò quindi una ipotesi analoga per la forma umana. Fu insignito per tali suoi studi del premio Nobel per la medicina; gli fu affidata inoltre la direzione nel 1926 di un istituto chiamato poi Ross Institute, da lui fondato per le ricerche di malariologia e di altre malattie infettive e tropicali.

IL CORPO UMANO VISTO DALL’INTERNO – 2

La trasformazione degli alimenti in energia.

Attraverso la digestione, i cibi che abbiamo mangiato sono ridotti ai loro componenti essenziali. Questi ultimi sono assorbiti dall’intestino, “etichettati” e suddivisi (gli zuccheri da una parte, le proteine dall’altra, i grassi da un’altra parte ancora). Infine sono inviati ai destinatari, che sono i diversi tessuti e organi del corpo. E’ l’intestino a smistare e indirizzare questi pacchetti: un lavoro da far rabbrividire anche il più grande corriere espresso. La maggior parte del nutrimento digerito è assimilato dalla superficie dell’intestino tenue; della restante massa fluida si occupa l’intestino crasso. Questo ne assorbe l’acqua, in modo che i materiali in essa contenuti vengono gradualmente concentrati e quindi evacuati. L’intestino tenue ha una lunghezza complessiva di circa sei metri e la sua parete interna forma una serie di pieghe circolari. La sua superficie è ricoperta di minuscole protuberanze chiamate villi. La superficie del villo è ulteriormente ricoperta da micro-villi, sporgenze dalla lunghezza di circa un millesimo di millimetro. Perciò la superficie dell’intestino tenue raggiunge i 200 metri quadrati, come una casa di cinque-sei locali.

Quando i cibi, già in parte digeriti dallo stomaco, entrano nell’intestino e raggiungono i micro-villi, vengono decomposti definitivamente attraverso l’azione di alcuni enzimi e assimilati all’interno di particolari cellule. Il glucosio (la sostanza base dei carboidrati come pane e pasta) o gli amminoacidi (i costituenti delle proteine, presenti per esempio in carne, pesce, uova, formaggi) passano nelle cellule, si immettono nei capillari sanguigni e vengono poi trasportati al fegato. I grassi seguono un percorso diverso: entrano nei vasi linfatici capillari, passano attraverso i grandi vasi linfatici e vengono inviati alle vene.

Un incessante produzione di energia.

L’ossigeno entrato nel sangue con i polmoni viene catturato dall’emoglobina, presente nei globuli rossi, e trasportato dalle arterie in ogni cellula del corpo. Qui le sostanze nutritive, come il glucosio (formato da carbonio, idrogeno e ossigeno), s ossidano per effetto dell’ossigeno e si separano in acqua e anidride carbonica, producendo l’energia necessaria alla vita delle cellule. L’anidride carbonica entra nelle vene e si trasferisce negli alveoli polmonari, per essere infine emessa all’esterno.

Noi viviamo perché le nostre cellule vivono. Per farlo, hanno bisogno di energia. Per ottenere energia si deve “bruciare” qualcosa: in un camino si brucia il legno, nel fornello di casa il gas. E nelle cellule si usa, come combustibile, il glucosio che è appena arrivato dall’intestino, attraverso la scomposizione dei cibi. Dal punto di vista chimico, la combustione è una reazione di ossidazione, quindi può avvenire, come in questo caso, anche senza fiamma. Per l’ossidazione serve ossigeno, che le cellule si procurano attraverso la respirazione. E’ questo il motivo per cui respiriamo.

L’apparato respiratorio immette nel sangue l’ossigeno inalato, lo fa circolare attraverso le cellule di tutto il corpo ed emette nell’atmosfera l’anidride carbonica, cioè il sottoprodotto della reazione di combustione. Si produce infatti anche nelle automobili, nel camino e così via. Per azione del diaframma e dei muscoli costali i polmoni si allargano e si restringono. Attraverso i bronchi fanno entrare e uscire l’aria dagli alveoli interni al polmone. Questo processo si attua attraverso sottilissime pareti che separano l’aria che si trova gli alveoli dal sangue, contenuto nei capillari delle vene e arterie che corrono intorno agli alveoli.

Ciascuno di noi ha bisogno ogni giorno di un “pieno” di circa seicento litri di ossigeno (pari al contenuto di circa dieci serbatoi di automobile), e produce circa 480 litri di anidride carbonica. Appena arrivato nel sangue, l’ossigeno viene catturato da una proteina, l’emoglobina, contenuta nei globuli rossi. E in meno di trenta secondi viene distribuito e fornito a ogni angolo del corpo. Nel sangue sono presenti numerosissimi globuli rossi: attraverso questi, in cento millilitri di sangue vengono trasportati circa ventuno millilitri di ossigeno.

Elettricità e chimica ci danno una mossa.

Quando uno stimolo nervoso arriva al muscolo, il segnale elettrico del nervo viene trasformato in un segnale chimico (con rilascio di ioni di calcio) da parte di un piccolo organo che ricopre le miofibrille, detto reticolo sarcoplasmatico. Il rilascio di ioni di calcio fa sì che le sostanze di cui è composta la miofibrilla, l’actina e la miosina, scivolino l’una sull’altra e il muscolo si contragga. Quando si piega il gomito, l’actina scivola e si infila tra la miosina. Quando invece il braccio è disteso, le due sostanze non sono sovrapposte.

Ogni volta che facciamo un movimento, un sorriso o un salto triplo, contraiamo una serie di muscoli. Proviamo per esempio a osservare il movimento del gomito. Sulla parte anteriore dell’omero (l’osso lungo del braccio) si trova il muscolo bicipite. Quando questo si contrae, il gomito si piega e contemporaneamente il muscolo tricipite del braccio, che si trova nella parte posteriore, si distende. I muscoli sono formati da fasci di numerose fibre muscolari, composte da cellule dal diametro di 0,1 millimetri. Le fibre muscolari raggiungono la lunghezza di alcuni centimetri e all’interno presentano un grande numero di miofibrille, sovrapposte ordinatamente l’una all’altra. Ogni muscolo è controllato da un nervo. Quando ricevono uno stimolo nervoso, tutte le miofibrille si contraggono e il muscolo nella sua globalità si restringe. Tutto ciò è possibile grazie a una particolarità delle miofibrille, formate da due proteine sovrapposte, l’actina e la miosina. Quando arriva uno stimolo nervoso, queste proteine scivolano una sopra all’altra; di conseguenza le fibre si sovrappongono di più o di meno e la fibra muscolare si accorcia o si allunga. Continua 2.

Esplosivo e inossidabile, malleabile e rigido, leggero e riciclabile

L’alluminio dei miracoli – 3

E il tetrapack, la confezione in carta e alluminio utilizzato per latte e succhi di frutta? Si possono riciclare insieme alla carta. La parte in carta, infatti viene recuperata, e l’alluminio è bruciato per ricavare energia. Ma si lavora già ad impianti dove avverrà il riciclo completo.

Già oggi riciclabili sono invece i cavi dell’alta tensione, anch’essi in gran parte d’alluminio. Rispetto al rame, per esempio, l’alluminio è 3 volte più leggero e, a parità di peso, conduce il doppio dell’elettricità. Cavi e contatti in alluminio si trovano anche nelle lampadine e nei circuiti integrati.

Oltre a essere un buon conduttore di elettricità, l’alluminio riflette sia la luce sia le microonde. Per questo lo si usa per gli specchi ad altissima precisione dei telescopi, e anche per registrare cd e dvd: i dati sono rappresentati da incavi presenti sulla pellicola d’alluminio, protetta da uno strato di plastica.

Le proprietà riflettenti sono usate anche per isolare termicamente. In molti casi, infatti, la fonte principale di calore non è il contatto diretto con l’aria, ma l’irraggiamento. I pannelli di protezione in alluminio che ricoprono gli edifici, infatti, respingono la luce ed il calore del sole: lo stesso principio utilizzato nei thermos e nelle tute degli astronauti… l’alluminio presente negli indumenti d’alta moda, invece, non ha scopi tecnologici ma estetici. Anche se di classe: basta pensare ai capi disegnati da Paco Rabanne e Issey Miyake, ai gioielli di Arline Fisch, alle borse di Salvatore Ferragamo.

Perché tanto interesse per questo materiale? Forse il motivo è lo stesso per cui l’alluminio ha successo nell’arredamento. L’alluminio è un materiale elegante e neutrale, che si abbina a tutto. Nell’arredamento offre nuove prospettive di disign, perché si presta ugualmente bene per uffici, appartamenti e giardini.

Del resto, l’alluminio è sempre piaciuto. Ai tempi di Verne, quando era rarissimo, si racconta che Napoleone III accolse il re del Siam con un banchetto in cui posate e piatti erano in alluminio. L’oro zecchino non sarebbe stato all’altezza di un tale ospite.

I cugini: titanio e magnesio

I metalli leggeri più importanti, dopo l’alluminio, sono il titanio e il magnesio. Il primo è molto resistente, mentre il secondo ha una leggerezza impareggiabile. Entrambi sono più costosi dell’alluminio (soprattutto il titanio) e quindi meno usati. Ma, in futuro, la loro importanza potrebbe aumentare.

Il titanio, il quarto metallo in ordine di abbondanza nella crosta terrestre, è particolarmente promettente perché anche se è quasi due volte più denso, il titanio ha caratteristiche meccaniche più elevate rispetto alla media delle leghe d’alluminio: è resistente alla corrosione e biocompatibile. Per questo è utilizzato nell’industria aeronautica, in quella chimica e nella produzione di protesi. Le sue polveri, tra l’altro, sono in grado di produrre spettacolari fuochi d’artificio.

1808 – L’inglese Sir Humphry Davy deduce l’esistenza dell’alluminio e gli dà il nome.

1821 – Il francese Pierre Berthier scopre nei pressi di Les Baux (Francia meridionale), un terreno argilloso e rossatro, composto al 52% d’alluminio: la “bauxite”.

1825 – Hans Christian Oersted, danese, isola l’alluminio puro.

1845 – Il tedesco Freidrich Wohler misura la densità dell’alluminio.

1854 – Il francese Henri Sainte Claire Deville inizia la produzione industriale. Il prezzo cala del 90% in 10 anni.

1855 – Una barra di alluminio è per la prima volta presentata al pubblico, a Parigi.

1886 – Scoperta del processo elettrolitico, ancora oggi utilizzato nella produzione industriale.

1888 – Compaiono le prime industrie in Francia, Svizzera e Usa.

1900 – Inizia la grande produzione industriale: 8 mila tonnellate all’anno.

1946 – La produzione raggiunge le 689 mila tonnellate annue.

1963 – Prodotta la prima lattina.

1999 – Produzione mondiale 24 milioni di tonnellate. Più di 7 milioni di tonnellate provenienti dal riciclo.