Dalla ruota ad acqua alla turbina
Mulini, segherie, officine di fabbri, venivano costruiti fino a cento anni fa solo dove l’acqua poteva fornire l’energia necessaria al funzionamento delle macine, delle seghe, dei magli, dei mantici…
La prima tecnica adottata per lo sfruttamento dell'energia idraulica, cioè quella fornita dall’acqua, fu quella della ruota idraulica. Una ruota di forma particolare veniva fatta girare dalla corrente del corso d’acqua. Il movimento dell’albero della ruota veniva quindi trasmesso attraverso ruote dentate (di legno) oppure cinghie (di cuoio) agli alberi delle macchine all’interno dell’officina. La ruota idraulica ha subito successive modifiche, spinte dalla ricerca di una sempre maggiore efficienza.
Da circa un secolo sono entrate in uso, in sostituzione della ruota, le turbine idrauliche, in grado di sfruttare meglio l’energia dell’acqua. Gli impianti si sono pertanto trasformati fino a raggiungere l’attuale schema tipico di un impianto idroelettrico.
L’acqua viene catturata con un piccolo sbarramento e una deviazione, chiamata derivazione, verso un canale che porta l’acqua alla vasca di carico.
Questo è il punto di partenza della condotta forzata, la quale è costruita normalmente con tubi di acciaio e trasporta l’acqua fino all’entrata della turbina. la condotta forzata è sempre inclinata verso il basso, per poter avere dall’acqua più energia.
Thomas K. Derry e Trevor I. Williams
“Storia della Tecnologia”
Editore Boringhieri S.p.A.
Torino, 1997
Volume primo, pagg. 290-300
La prima tecnica adottata per lo sfruttamento dell'energia idraulica, cioè quella fornita dall’acqua, fu quella della ruota idraulica. Una ruota di forma particolare veniva fatta girare dalla corrente del corso d’acqua. Il movimento dell’albero della ruota veniva quindi trasmesso attraverso ruote dentate (di legno) oppure cinghie (di cuoio) agli alberi delle macchine all’interno dell’officina. La ruota idraulica ha subito successive modifiche, spinte dalla ricerca di una sempre maggiore efficienza.
Da circa un secolo sono entrate in uso, in sostituzione della ruota, le turbine idrauliche, in grado di sfruttare meglio l’energia dell’acqua. Gli impianti si sono pertanto trasformati fino a raggiungere l’attuale schema tipico di un impianto idroelettrico.
L’acqua viene catturata con un piccolo sbarramento e una deviazione, chiamata derivazione, verso un canale che porta l’acqua alla vasca di carico.
Questo è il punto di partenza della condotta forzata, la quale è costruita normalmente con tubi di acciaio e trasporta l’acqua fino all’entrata della turbina. la condotta forzata è sempre inclinata verso il basso, per poter avere dall’acqua più energia.
Thomas K. Derry e Trevor I. Williams
“Storia della Tecnologia”
Editore Boringhieri S.p.A.
Torino, 1997
Volume primo, pagg. 290-300
************************
I tre stadi evolutivi della ruota idraulica
Il primo mulino ad acqua di cui si abbia notizia, è il cosiddetto mulino greco o norvegese. Questo differiva dal tipo che ora ci è familiare per l'asse non orizzontale, ma verticale: nella parte più bassa dell'asse vi era una serie di pale o palette, che erano immerse nella corrente d'acqua. Tale tipo di mulino venne usato principalmente per macinare il grano: l'asse passava verso l'alto, attraverso la macina inferiore, ed era fissato a quella superiore, che faceva girare. Mulini di questa specie richiedevano una corrente d'acqua rapida e avevano certamente avuto origine nelle regioni collinose del Vicino Oriente; non si ha infatti notizia che siano stati usati in Egitto o in Mesopotamia, dove i fiumi scorrono per la maggior parte lentamente e sono soggetti a grandi rapide e cascate. Plinio attribuisce l'origine dei mulini ad acqua per la macinazione del grano presumibilmente all'Italia settentrionale; questi erano probabilmente del tipo scandinavo. Essi furono largamente usati in Europa durante il Medioevo e in alcune regioni fin quasi alla fine del diciannovesimo secolo; nelle isole Shetland, dove un tempo erano circa cinquecento, nel 1933 ne era rimasto un solo esemplare in funzione a Sandness. Tali mulini possono veramente essere considerati come i precursori della turbina idraulica, invenzione del diciannovesimo secolo, e sotto questo punto di vista si può dire che siano stati usati senza interruzione per ben più di tremila anni. I mulini scandinavi avevano generalmente piccole dimensioni ed erano piuttosto lenti; la macina infatti ruotava alla stessa velocità della ruota. Essi erano adatti a macinare solamente piccole quantità di grano, e il loro uso doveva essere puramente locale.
Un tipo di mulino idraulico con asse orizzontale e ruota verticale fu progettato nel primo secolo a.C. da Vitruvio. L'ispirazione può essergli venuta dal congegno per sollevare l'acqua conosciuto come "ruota persiana" o saqiya, che consisteva essenzialmente in recipienti per attingere l'acqua disposti lungo la circonferenza d'una ruota, fatta girare da forza umana o animale. Questa ruota era usata in Egitto nel secondo secolo a.C. e deve essere stata ben nota a Vitruvio, che ne descrisse una più efficiente modificazione conosciuta come "ruota a tazze". La ruota idraulica vitruviana è essenzialmente una "ruota a tazze" che funziona in modo contrario. Progettata per la macinazione del grano, la ruota era collegata alla macina mobile per mezzo di ingranaggi lignei che, generalmente, davano una riduzione di giri di circa 5:1. I primitivi mulini di questo tipo furono azionati dall'"acqua che passava sotto": la parte inferiore della ruota, immersa nel corso d'acqua, veniva fatta girare dalla forza della corrente.
Più tardi si trovò che una ruota alimentata dall'alto era più efficiente; infatti l'acqua, cadendo sulla parte superiore della ruota, riempie alcune delle tazze poste lungo la circonferenza; il suo peso fa si che la ruota giri; in questo modo, le tazze riempite scaricano il loro contenuto, mentre quelle vuote sono sospinte sotto la sorgente idrica. Benché più efficienti, tali ruote richiedono generalmente un considerevole equipaggiamento sussidiario che fornisca il necessario rifornimento idrico. Comunemente si arginava il corso d'acqua in modo da formare un bacino, dal quale un canale di scarico portava un flusso d'acqua regolare alla ruota. Questo tipo di mulino fornì una sorgente d'energia maggiore di quelle disponibili precedentemente, e non solo rivoluzionò la macinazione del grano, ma aprì la via alla meccanizzazione di molte altre operazioni industriali.
E’ difficile calcolare la potenza di tali mulini; essa può, tuttavia, essere approssimativamente dedotta dalla loro produzione. Un mulino romano a Venafro, del tipo di quelli alimentati dal di sotto, con ruota del diametro di circa due metri, poteva macinare circa 180 chilogrammi di grano all'ora. Questo lavoro corrisponde, nella moderna valutazione. a circa tre cavalli-vapore. In confronto, un mulino azionato da un asino o da due uomini poteva a malapena macinare 4,5 chilogrammi all'ora.
Dal quarto secolo d.C. nell'Impero Romano furono installati mulini ad acqua di notevoli dimensioni. A Barbegal, vicino ad Arles, per esempio, verso il 310 d.C. venivano usate per la macinazione del grano sedici ruote alimentate per di sopra, che avevano un diametro, alcune di circa 2,70 metri, altre di poco meno d'un metro. Ciascuna di esse azionava, attraverso ingranaggi di legno, due macine: la capacità di macinazione complessiva era di 3 tonnellate all'ora, sufficienti al fabbisogno d'una popolazione di 80.000 abitanti, e poiché la popolazione d'Arles a quel tempo non superava i diecimila abitanti circa, è chiaro che questo mulino serviva una vasta zona.
E’ sorprendente che il mulino di Vitruvio non venisse comunemente usato nell'Impero Romano fino al terzo e quarto secolo d.C., ma forse la spiegazione può essere ricercata nelle condizioni sociali. Essendo disponibili gli schiavi e altra mano d'opera a poco prezzo, vi era scarso incentivo ad accollarsi il necessario impiego di capitale; si dice poi che l'imperatore Vespasiano (69-79 d.C.) si sia opposto all'uso dell'energia idraulica perché questa avrebbe creato disoccupazione. Quando infine la mano d'opera scarseggiò, si trovò più facile servirsi di asini e di cavalli che costruire mulini ad acqua. Il danno scaturito da questa politica fu tuttavia dimostrato all'inizio del primo secolo d.C., allorché sia la macinazione del grano sia la panificazione s'erano già trasformate a Roma in un'industria specializzata. A quel tempo i mulini su cui Roma faceva assegnamento erano per la maggior parte azionati da cavalli e da asini, ma quando Caligola confiscò i cavalli, il sistema si rivelò insufficiente. Nel quarto secolo d.C., però, le circostanze erano radicalmente mutate; data la grande penuria di mano d'opera, la costruzione dei mulini idraulici divenne una questione di pubblica utilità. Queste circostanze (si può notare incidentalmente) furono analoghe a quelle verificatesi nel diciannovesimo secolo, quando per la mancanza di mano d'opera si registrò negli Stati Uniti un forte impulso nell'impiego di macchinari.
Considerazioni d'ordine strategico condussero allo sviluppo d'un tipo di mulino conosciuto come mulino galleggiante, impiegato da Belisario, quando gli Ostrogoti, durante l'assedio di Roma del 537, tentarono di bloccare gli acquedotti che fornivano l'acqua sia per bere sia per i mulini; i gravi inconvenienti derivati dalla cessazione d'esercizio dei mulini dimostrano di quanto essi fossero subordinati all'energia idraulica. Questi mulini galleggianti erano costituiti da una ruota idraulica posta tra due imbarcazioni, ormeggiate in una corrente impetuosa, su ciascuna delle quali si trovava un mulino; l'invenzione può essere stata suggerita da un più antico tipo di nave mossa da una ruota a pale azionata da buoi; l'anonimo autore del De rebus bellicis, vissuto verso il 370 d.C., propose un espediente di questo genere. I mulini galleggianti si diffusero largamente in Europa e alcuni resistettero fino ai tempi moderni. I mulini azionati dalle maree sono stati usati prima dell'undicesimo secolo; un esemplare di quest'epoca viene menzionato a Dover, ma la maggior parte di essi risale al diciottesimo secolo, benché non abbiano mai avuto grande importanza come fonti d'energia.
Sebbene la macinazione del grano fornisse il maggior impulso allo sviluppo della ruota idraulica, questa fu largamente usata in Europa durante il Medioevo per una grande varietà di usi industriali; il Domesday Book, per esempio, menziona non meno di 5624 mulini ad acqua situati, in Inghilterra, a sud del fiume Trent, la maggior parte dei quali di tipo vitruviano. L'energia idraulica venne usata per azionare segherie, follatoi, frantoi di minerali, mulini a pestelli per la lavorazione dei metalli, mulini per alimentare i mantici delle fornaci, e per una grande varietà di altri congegni, ed ebbe una grande importanza sulla distribuzione geografica dell'industria. Provocò, per esempio, lo spostamento dei follatoi nelle aree rurali alla ricerca di corsi d'acqua adatti e incoraggiò la formazione di più vasti gruppi di persone che si dedicavano all'estrazione e alla lavorazione dei metalli. L’imbrigliamento dell'energia idraulica per molteplici usi diede anche impulso al miglioramento degli ingranaggi e dei macchinari in generale.
importanza delle ruote idrauliche per la società si riflette, in quasi tutti i paesi europei, in complesse leggi relative al controllo dei corsi d'acqua; nel mondo musulmano il loro uso era strettamente limitato all'irrigazione.
La ruota idraulica conservò la sua immensa importanza industriale anche molto tempo dopo l'invenzione della macchina a vapore; infatti, all'inizio, l'uso più comune cui fu adibita non fu quello d'azionare direttamente macchinari, ma di pompare l'acqua per provvedere una sorgente costante alla ruota idraulica. Dal sedicesimo al diciannovesimo secolo, la ruota ad acqua fu la più importante fonte d'energia per l'Europa e per l'America settentrionale: Londra, per esempio, dal 1582 al 1822 pompò una riserva d'acqua dal fiume mediante ruote idrauliche installate al Ponte di Londra. La rivoluzione industriale, ben lungi dal rendere antiquata la ruota ad acqua, portò a considerevoli miglioramenti dopo un lungo periodo di cambiamenti piuttosto modesti.
Thomas K. Derry e Trevor I. Williams
“Storia della Tecnologia”
Editore Boringhieri S.p.A.
Torino, 1997
Volume primo, pagg. 290-300
Un tipo di mulino idraulico con asse orizzontale e ruota verticale fu progettato nel primo secolo a.C. da Vitruvio. L'ispirazione può essergli venuta dal congegno per sollevare l'acqua conosciuto come "ruota persiana" o saqiya, che consisteva essenzialmente in recipienti per attingere l'acqua disposti lungo la circonferenza d'una ruota, fatta girare da forza umana o animale. Questa ruota era usata in Egitto nel secondo secolo a.C. e deve essere stata ben nota a Vitruvio, che ne descrisse una più efficiente modificazione conosciuta come "ruota a tazze". La ruota idraulica vitruviana è essenzialmente una "ruota a tazze" che funziona in modo contrario. Progettata per la macinazione del grano, la ruota era collegata alla macina mobile per mezzo di ingranaggi lignei che, generalmente, davano una riduzione di giri di circa 5:1. I primitivi mulini di questo tipo furono azionati dall'"acqua che passava sotto": la parte inferiore della ruota, immersa nel corso d'acqua, veniva fatta girare dalla forza della corrente.
Più tardi si trovò che una ruota alimentata dall'alto era più efficiente; infatti l'acqua, cadendo sulla parte superiore della ruota, riempie alcune delle tazze poste lungo la circonferenza; il suo peso fa si che la ruota giri; in questo modo, le tazze riempite scaricano il loro contenuto, mentre quelle vuote sono sospinte sotto la sorgente idrica. Benché più efficienti, tali ruote richiedono generalmente un considerevole equipaggiamento sussidiario che fornisca il necessario rifornimento idrico. Comunemente si arginava il corso d'acqua in modo da formare un bacino, dal quale un canale di scarico portava un flusso d'acqua regolare alla ruota. Questo tipo di mulino fornì una sorgente d'energia maggiore di quelle disponibili precedentemente, e non solo rivoluzionò la macinazione del grano, ma aprì la via alla meccanizzazione di molte altre operazioni industriali.
E’ difficile calcolare la potenza di tali mulini; essa può, tuttavia, essere approssimativamente dedotta dalla loro produzione. Un mulino romano a Venafro, del tipo di quelli alimentati dal di sotto, con ruota del diametro di circa due metri, poteva macinare circa 180 chilogrammi di grano all'ora. Questo lavoro corrisponde, nella moderna valutazione. a circa tre cavalli-vapore. In confronto, un mulino azionato da un asino o da due uomini poteva a malapena macinare 4,5 chilogrammi all'ora.
Dal quarto secolo d.C. nell'Impero Romano furono installati mulini ad acqua di notevoli dimensioni. A Barbegal, vicino ad Arles, per esempio, verso il 310 d.C. venivano usate per la macinazione del grano sedici ruote alimentate per di sopra, che avevano un diametro, alcune di circa 2,70 metri, altre di poco meno d'un metro. Ciascuna di esse azionava, attraverso ingranaggi di legno, due macine: la capacità di macinazione complessiva era di 3 tonnellate all'ora, sufficienti al fabbisogno d'una popolazione di 80.000 abitanti, e poiché la popolazione d'Arles a quel tempo non superava i diecimila abitanti circa, è chiaro che questo mulino serviva una vasta zona.
E’ sorprendente che il mulino di Vitruvio non venisse comunemente usato nell'Impero Romano fino al terzo e quarto secolo d.C., ma forse la spiegazione può essere ricercata nelle condizioni sociali. Essendo disponibili gli schiavi e altra mano d'opera a poco prezzo, vi era scarso incentivo ad accollarsi il necessario impiego di capitale; si dice poi che l'imperatore Vespasiano (69-79 d.C.) si sia opposto all'uso dell'energia idraulica perché questa avrebbe creato disoccupazione. Quando infine la mano d'opera scarseggiò, si trovò più facile servirsi di asini e di cavalli che costruire mulini ad acqua. Il danno scaturito da questa politica fu tuttavia dimostrato all'inizio del primo secolo d.C., allorché sia la macinazione del grano sia la panificazione s'erano già trasformate a Roma in un'industria specializzata. A quel tempo i mulini su cui Roma faceva assegnamento erano per la maggior parte azionati da cavalli e da asini, ma quando Caligola confiscò i cavalli, il sistema si rivelò insufficiente. Nel quarto secolo d.C., però, le circostanze erano radicalmente mutate; data la grande penuria di mano d'opera, la costruzione dei mulini idraulici divenne una questione di pubblica utilità. Queste circostanze (si può notare incidentalmente) furono analoghe a quelle verificatesi nel diciannovesimo secolo, quando per la mancanza di mano d'opera si registrò negli Stati Uniti un forte impulso nell'impiego di macchinari.
Considerazioni d'ordine strategico condussero allo sviluppo d'un tipo di mulino conosciuto come mulino galleggiante, impiegato da Belisario, quando gli Ostrogoti, durante l'assedio di Roma del 537, tentarono di bloccare gli acquedotti che fornivano l'acqua sia per bere sia per i mulini; i gravi inconvenienti derivati dalla cessazione d'esercizio dei mulini dimostrano di quanto essi fossero subordinati all'energia idraulica. Questi mulini galleggianti erano costituiti da una ruota idraulica posta tra due imbarcazioni, ormeggiate in una corrente impetuosa, su ciascuna delle quali si trovava un mulino; l'invenzione può essere stata suggerita da un più antico tipo di nave mossa da una ruota a pale azionata da buoi; l'anonimo autore del De rebus bellicis, vissuto verso il 370 d.C., propose un espediente di questo genere. I mulini galleggianti si diffusero largamente in Europa e alcuni resistettero fino ai tempi moderni. I mulini azionati dalle maree sono stati usati prima dell'undicesimo secolo; un esemplare di quest'epoca viene menzionato a Dover, ma la maggior parte di essi risale al diciottesimo secolo, benché non abbiano mai avuto grande importanza come fonti d'energia.
Sebbene la macinazione del grano fornisse il maggior impulso allo sviluppo della ruota idraulica, questa fu largamente usata in Europa durante il Medioevo per una grande varietà di usi industriali; il Domesday Book, per esempio, menziona non meno di 5624 mulini ad acqua situati, in Inghilterra, a sud del fiume Trent, la maggior parte dei quali di tipo vitruviano. L'energia idraulica venne usata per azionare segherie, follatoi, frantoi di minerali, mulini a pestelli per la lavorazione dei metalli, mulini per alimentare i mantici delle fornaci, e per una grande varietà di altri congegni, ed ebbe una grande importanza sulla distribuzione geografica dell'industria. Provocò, per esempio, lo spostamento dei follatoi nelle aree rurali alla ricerca di corsi d'acqua adatti e incoraggiò la formazione di più vasti gruppi di persone che si dedicavano all'estrazione e alla lavorazione dei metalli. L’imbrigliamento dell'energia idraulica per molteplici usi diede anche impulso al miglioramento degli ingranaggi e dei macchinari in generale.
importanza delle ruote idrauliche per la società si riflette, in quasi tutti i paesi europei, in complesse leggi relative al controllo dei corsi d'acqua; nel mondo musulmano il loro uso era strettamente limitato all'irrigazione.
La ruota idraulica conservò la sua immensa importanza industriale anche molto tempo dopo l'invenzione della macchina a vapore; infatti, all'inizio, l'uso più comune cui fu adibita non fu quello d'azionare direttamente macchinari, ma di pompare l'acqua per provvedere una sorgente costante alla ruota idraulica. Dal sedicesimo al diciannovesimo secolo, la ruota ad acqua fu la più importante fonte d'energia per l'Europa e per l'America settentrionale: Londra, per esempio, dal 1582 al 1822 pompò una riserva d'acqua dal fiume mediante ruote idrauliche installate al Ponte di Londra. La rivoluzione industriale, ben lungi dal rendere antiquata la ruota ad acqua, portò a considerevoli miglioramenti dopo un lungo periodo di cambiamenti piuttosto modesti.
Thomas K. Derry e Trevor I. Williams
“Storia della Tecnologia”
Editore Boringhieri S.p.A.
Torino, 1997
Volume primo, pagg. 290-300
***************************
I mulini a vento
Come fonte d'energia il mulino a vento non può dirsi antico quanto il mulino ad acqua. A parte una frase contenuta in un'opera d’Erronee d'Alessandria, di dubbia interpretazione, non vi è nessuna testimonianza che il mulino a vento sia stato conosciuto nel mondo antico. Come fonte d'energia meccanica sembra abbia avuto origine in Pressai nel settimo secolo d.C. e sia derivato dalle più antiche ruote delle preghiere, azionate dal vento, usate nell'Asia centrale. Un'altra congettura possibile, ma non dimostrata, è che il mulino a vento sia stato suggerito dalle vele delle navi. Durante il decimo secolo esso era largamente usato nella provincia persiana di Seistan per pompare acqua per irrigazione; nel corso del tredicesimo secolo e in seguito fu usato per la macinazione del frumento. E’ significativo che i mulini a vento persiani avessero l'asse verticale, analogo a quello dei mulini ad acqua greci e norvegesi, che, come abbiamo notato, si crede siano originari del Vicino Oriente. Il primitivo mulino a vento persiano per la macinazione del grano era costituito da un edificio a due piani; nel piano superiore si trovavano le macine e in quello inferiore una ruota azionata da sei o dodici ali atte a prendere il vento, che facevano girare la macina sovrastante. Questa posizione delle macine sopra l'asse motore è, si ricorderà, caratteristica del mulino ad acqua norvegese e costituisce un’ulteriore prova della relazione esistente tra i due. In un primo stadio di sviluppo si introdussero sulle ali dei congegni per controllare la velocità di rotazione, affinché l'eccessiva velocità non producesse troppo calore per l'attrito, il che avrebbe potuto danneggiare sia il grano sia le macine.
Come il mulino a vento persiano sembra sia derivato dalla cosiddetta ruota ad acqua norvegese, cosi il tipo occidentale, con l'asse orizzontale, può essere stato ispirato dalla ruota idraulica di Vitruvio, poiché sembra che i mulini a vento di tipo occidentale e orientale siano state invenzioni indipendenti. Un singolare tipo di mulino a vento, trovato particolarmente a Creta e nell'Egeo, può considerarsi come un tipo intermedio, ma si tratta molto probabilmente d'una variazione locale del mulino a torre occidentale. Questi mulini a vento mediterranei hanno otto o dodici ali di grossa tela, come le vele d'una nave, poste su una semplice struttura; la loro velocità di rotazione viene controllata regolando l'ampiezza della superficie velare secondo la necessità.
La prima menzione d'un mulino a vento di tipo occidentale si trova in un documento normanno, redatto verso il 1180; sembra che questi mulini siano stati comuni nelle regioni dell'Europa settentrionale, dalla fine del tredicesimo secolo. Fondamentalmente, il tipo occidentale è più efficiente, poiché la forza del vento agisce senza interruzione sull'intera superficie delle ali, mentre nel tipo persiano solo una parte di tale superficie è attiva a un dato momento. La costruzione era qualche volta molto elaborata, per ottenere la possibilità di girare le ali al vento. Per ottenere questo, si usavano due metodi. Nel mulino a pilastro centrale—il tipo più antico— l'intera struttura, che portava sia le ali sia il macchinario, era posta su un resistente pilastro verticale, intorno al quale poteva ruotare. Durante il tardo quattordicesimo secolo, vennero installati mulini a torre, nei quali solo la parte superiore del mulino, contenente le ali, era girevole; si risparmiava cosi un considerevole sforzo. La struttura dei mulini 'a torre poteva essere di pietra o di mattoni; s'evitavano in tal modo i solidi rinforzi in legno del mulino a pilastro centrale e s'offriva una maggior resistenza alla grande forza del vento sull'intera struttura; si conoscono però anche mulini a torre di legno. L'invenzione del mulino a pilastro cavo, avvenuta in Olanda nel 1430, rappresentò un notevole passo avanti. In esso, infatti, le dimensioni della struttura rotante sono ridotte e un albero motore, passando attraverso l'interno del pilastro, aziona il macchinari che sta nella costruzione fissa sottostante.
Una variazione del mulino a pilastro era il cosiddetto mulino a pilastro "interrato", nel quale la parte inferiore della struttura era interrata nel suolo; questi mulini sono menzionati in un documento del dodicesimo secolo. Lo scopo era quello di rinforzare il mulino contro la violenza del vento, ma questa soluzione presentava lo svantaggio che, essendo le ali relativamente vicine al terreno, era spesso difficile sfruttare in modo completo il vento; inoltre la costruzione in legno marciva facilmente. Questo tipo perciò non divenne mai molto popolare; ne sono stati tuttavia trovati resti in varie parti dell'Inghilterra e se ne conoscono anche esemplari esistenti in Russia, in Bretagna e negli Stati Uniti.
La supposizione che i mulini a vento occidentali derivino dalla ruota idraulica vitruviana è rafforzata dal fatto che in Russia esistono dei mulini a vento le cui macine sono collocate sopra l'albero motore. In questo tipo le ali sono troppo piccole per sfruttare interamente la forza del vento e non vi è adeguato spazio per immagazzinare il grano nella parte superiore e mettere così in grado le macine d'essere alimentate dalla forza di gravità.
Benché il principio del mulino a vento sia semplice, le prime illustrazioni mostrano come la sua costruzione fosse complessa e massiccia Infatti i mulini a pilastro centrale erano costruiti interamente in legno e la loro struttura veniva resa impermeabile per mezzo di assicelle pure di legno o di assi a sgrondo. Fatta eccezione per i tipi più semplici la parte inferiore del mulino era spesso circondata da una costruzione rotonda fissa, che serviva da magazzino supplementare. Per far ruotare nel vento i mulini a pilastro, anche se ben bilanciati, era necessario un notevole impiego d'energia. Per un lungo periodo essi vennero fatti ruotare manualmente, spingendo semplicemente l'estremità d'una lunga asta che scendeva dalla struttura girevole superiore verso il basso, quasi fino a terra. Questo lavoro era però molto faticoso, e furono pertanto introdotti presto congegni meccanici, il più antico dei quali fu l'argano, prima semplice e successivamente con meccanismi—verso la metà del diciottesimo secolo si usarono a questo scopo meccanismi di ferro—che potevano essere sistemati su qualcuno dei sostegni infissi nel terreno intorno alla base del mulino a vento. Un importante passo avanti fu compiuto con il mulinello a ventaglio, brevettato da Edmund Lee nel 1745, consistente in una serie di pale, poste all'estremità di un'asta, che azionavano due ruote dentate. Le pale erano poste in modo che, quando il mulino era esposto al vento, questo non esercitava nessuna forza su di esse: quando però il vento mutava direzione, le pale del mulinello a ventaglio giravano e azionavano le ruote dentate, orientando così automaticamente il mulino verso l'esatta posizione.
Metodi simili furono usati per far ruotare le parti superiori dei mulini a torre. Qualche volta l’estremità dell'asta era semplicemente fissata all'interno della parte superiore, ma più spesso s'usava un sostegno esterno. Frequentemente venivano anche impiegati argani semplici 0 con meccanismi, oppure si faceva ruotare la parte superiore per mezzo d'una leva fissata in una serie d'incastri sulla sua circonferenza interna. Il mulinello a ventaglio venne usato anche fuori d'Inghilterra, ma solo un secolo dopo la sua invenzione, e limitatamente alla Danimarca e ai Paesi Bassi.
Le ali dei mulini a vento erano originariamente costituite da teli fissati su intelaiature come nei velieri. Si poteva controllare la loro rotazione serrandole o allentandole e variando l'angolo d'incidenza rispetto al vento; tuttavia esse erano difficili da maneggiare specialmente nelle improvvise bufere. Per questo vennero anche usate comunemente apparecchiature di legno, più robuste e più facili da maneggiare. L'asse che portava le ali, era normalmente inclinato verso l'alto d'un angolo tra i 5° e i 10°, affinché le pale rimanessero distanziate dal corpo principale del mulino. l numero delle ali era molto variabile: comunemente se ne usavano quattro, talvolta ne furono impiegate fino a sedici, sulle coste del Mediterraneo e in Russia erano solitamente sei.
I primi mulini a vento furono usati per la macinazione del grano, ma dal quindicesimo secolo vennero impiegati prevalentemente per sollevare l'acqua, specialmente nel distretto di Zaan in Olanda; in quel solo luogo, ve n'erano settecento alla fine del diciassettesimo secolo, e novecento prima dell'avvento dell'energia a vapore. Nei Paesi Bassi si giunse fino a un massimo di ottomila mulini a vento, usati anche per azionare seghe meccaniche, per la prima volta in Olanda nel 1592, e per sollevare i materiali dalle miniere. Nonostante ciò, l'introduzione dei mulini a vento come fonte generale d'energia per l'industria incontrò qualche difficoltà perché si diffuse la paura della disoccupazione, similmente a quanto era avvenuto al tempo dei Romani con la ruota idraulica: per esempio, nel 1768 nel Limehouse una segheria azionata dall'energia eolica venne distrutta dalla folla.
Uno dei limiti sia della ruota idraulica sia del mulino a vento era rappresentato dal fatto che l'energia generata doveva, di solito, venire utilizzata sul luogo. Tuttavia vi furono alcuni sistemi, uno dei quali illustrato nella figura 108, per trasmettere l'energia spesso anche a notevole distanza, nonostante le forti perdite.
Come per la ruota idraulica, così è difficile valutare il rendimento dei mulini a vento. Un grande esemplare olandese del diciottesimo secolo, con una velatura di circa 30 metri, generava probabilmente circa dieci cavalli-vapore con un vento della velocità di circa 32 chilometri. Mulini più piccoli, con una velatura di circa 7 metri, producevano probabilmente circa 5 cavalli-vapore. Considerazioni d'ordine teorico mostrano che i mulini a vento nella loro forma tradizionale potevano rendere al massimo 30 cavalli-vapore. Non era questa una forza motrice sufficiente per il tenore di vita moderno, e, anche dopo l'introduzione d'ingranaggi di ferro, una notevole parte di tale energia andava perduta nel rozzo sistema di trasmissione. Ciò è comprensibile, perché i costruttori di mulini, che realizzavano e mantenevano in efficienza queste strutture, lavoravano principalmente per intuito. La più antica descrizione, completamente tecnica, d'un mulino a vento si trova nella seconda edizione d'un trattato francese sulla carpenteria, del 1702; la forma della velatura fu studiata scientificamente per la prima volta da Smeaton nel 1759. Eppure i costruttori di mulini, che non possedevano attrezzature più perfezionate di combinazioni di carrucole e paranchi, furono gli antenati dei moderni ingegneri meccanici.
L'energia sviluppata sul luogo da un mulino a vento medio variava da 5 a 10 cavalli-vapore, e questa, come abbiamo visto, è approssimativamente la forza media d'una ruota idraulica. Come le ruote idrauliche e i mulini a vento sono stati i soli importanti generatori di forza motrice dei tempi antichi, è giusto dire che la rivoluzione industriale incominciò con unità d’energia capaci di generare non più di 10 cavalli-vapore. Fino a quando non fu bene incamminata, essa non fece assumere una maggiore importanza alla molto più potente macchina a vapore.
Come il mulino a vento persiano sembra sia derivato dalla cosiddetta ruota ad acqua norvegese, cosi il tipo occidentale, con l'asse orizzontale, può essere stato ispirato dalla ruota idraulica di Vitruvio, poiché sembra che i mulini a vento di tipo occidentale e orientale siano state invenzioni indipendenti. Un singolare tipo di mulino a vento, trovato particolarmente a Creta e nell'Egeo, può considerarsi come un tipo intermedio, ma si tratta molto probabilmente d'una variazione locale del mulino a torre occidentale. Questi mulini a vento mediterranei hanno otto o dodici ali di grossa tela, come le vele d'una nave, poste su una semplice struttura; la loro velocità di rotazione viene controllata regolando l'ampiezza della superficie velare secondo la necessità.
La prima menzione d'un mulino a vento di tipo occidentale si trova in un documento normanno, redatto verso il 1180; sembra che questi mulini siano stati comuni nelle regioni dell'Europa settentrionale, dalla fine del tredicesimo secolo. Fondamentalmente, il tipo occidentale è più efficiente, poiché la forza del vento agisce senza interruzione sull'intera superficie delle ali, mentre nel tipo persiano solo una parte di tale superficie è attiva a un dato momento. La costruzione era qualche volta molto elaborata, per ottenere la possibilità di girare le ali al vento. Per ottenere questo, si usavano due metodi. Nel mulino a pilastro centrale—il tipo più antico— l'intera struttura, che portava sia le ali sia il macchinario, era posta su un resistente pilastro verticale, intorno al quale poteva ruotare. Durante il tardo quattordicesimo secolo, vennero installati mulini a torre, nei quali solo la parte superiore del mulino, contenente le ali, era girevole; si risparmiava cosi un considerevole sforzo. La struttura dei mulini 'a torre poteva essere di pietra o di mattoni; s'evitavano in tal modo i solidi rinforzi in legno del mulino a pilastro centrale e s'offriva una maggior resistenza alla grande forza del vento sull'intera struttura; si conoscono però anche mulini a torre di legno. L'invenzione del mulino a pilastro cavo, avvenuta in Olanda nel 1430, rappresentò un notevole passo avanti. In esso, infatti, le dimensioni della struttura rotante sono ridotte e un albero motore, passando attraverso l'interno del pilastro, aziona il macchinari che sta nella costruzione fissa sottostante.
Una variazione del mulino a pilastro era il cosiddetto mulino a pilastro "interrato", nel quale la parte inferiore della struttura era interrata nel suolo; questi mulini sono menzionati in un documento del dodicesimo secolo. Lo scopo era quello di rinforzare il mulino contro la violenza del vento, ma questa soluzione presentava lo svantaggio che, essendo le ali relativamente vicine al terreno, era spesso difficile sfruttare in modo completo il vento; inoltre la costruzione in legno marciva facilmente. Questo tipo perciò non divenne mai molto popolare; ne sono stati tuttavia trovati resti in varie parti dell'Inghilterra e se ne conoscono anche esemplari esistenti in Russia, in Bretagna e negli Stati Uniti.
La supposizione che i mulini a vento occidentali derivino dalla ruota idraulica vitruviana è rafforzata dal fatto che in Russia esistono dei mulini a vento le cui macine sono collocate sopra l'albero motore. In questo tipo le ali sono troppo piccole per sfruttare interamente la forza del vento e non vi è adeguato spazio per immagazzinare il grano nella parte superiore e mettere così in grado le macine d'essere alimentate dalla forza di gravità.
Benché il principio del mulino a vento sia semplice, le prime illustrazioni mostrano come la sua costruzione fosse complessa e massiccia Infatti i mulini a pilastro centrale erano costruiti interamente in legno e la loro struttura veniva resa impermeabile per mezzo di assicelle pure di legno o di assi a sgrondo. Fatta eccezione per i tipi più semplici la parte inferiore del mulino era spesso circondata da una costruzione rotonda fissa, che serviva da magazzino supplementare. Per far ruotare nel vento i mulini a pilastro, anche se ben bilanciati, era necessario un notevole impiego d'energia. Per un lungo periodo essi vennero fatti ruotare manualmente, spingendo semplicemente l'estremità d'una lunga asta che scendeva dalla struttura girevole superiore verso il basso, quasi fino a terra. Questo lavoro era però molto faticoso, e furono pertanto introdotti presto congegni meccanici, il più antico dei quali fu l'argano, prima semplice e successivamente con meccanismi—verso la metà del diciottesimo secolo si usarono a questo scopo meccanismi di ferro—che potevano essere sistemati su qualcuno dei sostegni infissi nel terreno intorno alla base del mulino a vento. Un importante passo avanti fu compiuto con il mulinello a ventaglio, brevettato da Edmund Lee nel 1745, consistente in una serie di pale, poste all'estremità di un'asta, che azionavano due ruote dentate. Le pale erano poste in modo che, quando il mulino era esposto al vento, questo non esercitava nessuna forza su di esse: quando però il vento mutava direzione, le pale del mulinello a ventaglio giravano e azionavano le ruote dentate, orientando così automaticamente il mulino verso l'esatta posizione.
Metodi simili furono usati per far ruotare le parti superiori dei mulini a torre. Qualche volta l’estremità dell'asta era semplicemente fissata all'interno della parte superiore, ma più spesso s'usava un sostegno esterno. Frequentemente venivano anche impiegati argani semplici 0 con meccanismi, oppure si faceva ruotare la parte superiore per mezzo d'una leva fissata in una serie d'incastri sulla sua circonferenza interna. Il mulinello a ventaglio venne usato anche fuori d'Inghilterra, ma solo un secolo dopo la sua invenzione, e limitatamente alla Danimarca e ai Paesi Bassi.
Le ali dei mulini a vento erano originariamente costituite da teli fissati su intelaiature come nei velieri. Si poteva controllare la loro rotazione serrandole o allentandole e variando l'angolo d'incidenza rispetto al vento; tuttavia esse erano difficili da maneggiare specialmente nelle improvvise bufere. Per questo vennero anche usate comunemente apparecchiature di legno, più robuste e più facili da maneggiare. L'asse che portava le ali, era normalmente inclinato verso l'alto d'un angolo tra i 5° e i 10°, affinché le pale rimanessero distanziate dal corpo principale del mulino. l numero delle ali era molto variabile: comunemente se ne usavano quattro, talvolta ne furono impiegate fino a sedici, sulle coste del Mediterraneo e in Russia erano solitamente sei.
I primi mulini a vento furono usati per la macinazione del grano, ma dal quindicesimo secolo vennero impiegati prevalentemente per sollevare l'acqua, specialmente nel distretto di Zaan in Olanda; in quel solo luogo, ve n'erano settecento alla fine del diciassettesimo secolo, e novecento prima dell'avvento dell'energia a vapore. Nei Paesi Bassi si giunse fino a un massimo di ottomila mulini a vento, usati anche per azionare seghe meccaniche, per la prima volta in Olanda nel 1592, e per sollevare i materiali dalle miniere. Nonostante ciò, l'introduzione dei mulini a vento come fonte generale d'energia per l'industria incontrò qualche difficoltà perché si diffuse la paura della disoccupazione, similmente a quanto era avvenuto al tempo dei Romani con la ruota idraulica: per esempio, nel 1768 nel Limehouse una segheria azionata dall'energia eolica venne distrutta dalla folla.
Uno dei limiti sia della ruota idraulica sia del mulino a vento era rappresentato dal fatto che l'energia generata doveva, di solito, venire utilizzata sul luogo. Tuttavia vi furono alcuni sistemi, uno dei quali illustrato nella figura 108, per trasmettere l'energia spesso anche a notevole distanza, nonostante le forti perdite.
Come per la ruota idraulica, così è difficile valutare il rendimento dei mulini a vento. Un grande esemplare olandese del diciottesimo secolo, con una velatura di circa 30 metri, generava probabilmente circa dieci cavalli-vapore con un vento della velocità di circa 32 chilometri. Mulini più piccoli, con una velatura di circa 7 metri, producevano probabilmente circa 5 cavalli-vapore. Considerazioni d'ordine teorico mostrano che i mulini a vento nella loro forma tradizionale potevano rendere al massimo 30 cavalli-vapore. Non era questa una forza motrice sufficiente per il tenore di vita moderno, e, anche dopo l'introduzione d'ingranaggi di ferro, una notevole parte di tale energia andava perduta nel rozzo sistema di trasmissione. Ciò è comprensibile, perché i costruttori di mulini, che realizzavano e mantenevano in efficienza queste strutture, lavoravano principalmente per intuito. La più antica descrizione, completamente tecnica, d'un mulino a vento si trova nella seconda edizione d'un trattato francese sulla carpenteria, del 1702; la forma della velatura fu studiata scientificamente per la prima volta da Smeaton nel 1759. Eppure i costruttori di mulini, che non possedevano attrezzature più perfezionate di combinazioni di carrucole e paranchi, furono gli antenati dei moderni ingegneri meccanici.
L'energia sviluppata sul luogo da un mulino a vento medio variava da 5 a 10 cavalli-vapore, e questa, come abbiamo visto, è approssimativamente la forza media d'una ruota idraulica. Come le ruote idrauliche e i mulini a vento sono stati i soli importanti generatori di forza motrice dei tempi antichi, è giusto dire che la rivoluzione industriale incominciò con unità d’energia capaci di generare non più di 10 cavalli-vapore. Fino a quando non fu bene incamminata, essa non fece assumere una maggiore importanza alla molto più potente macchina a vapore.
Thomas K. Derry e Trevor I. Williams
“Storia della Tecnologia”
Editore Boringhieri S.p.A.
Torino, 1997
Volume primo, pagg. 290-300
**************************
Industria elettrica: introduzione storica.
Come abbiamo visto, la maggior parte degli sviluppi tecnologici fu il risultato di scoperte empiriche fatte da tecnici: infatti, è già stato osservato che fino ai tempi relativamente recenti la tecnologia ha dato un contributo maggiore alla scienza di quanto la scienza abbia dato alla tecnologia. L'industria elettrica è un'eccezione, in quanto la sua origine e il suo sviluppo sono stati una diretta conseguenza di ricerche scientifiche; inoltre, la data di transizione da scienza sperimentale a industria può essere determinata con sufficiente precisione. L'avvenimento chiave fu la dimostrazione pratica dell'induzione elettromagnetica da parte di Michael Faraday, annunziata alla Royal Society il 24 novembre 1831. Entro breve tempo generatori elettromagnetici furono fabbricati su scala commerciale. Nonostante che il nostro scopo principale sia di occuparci di applicazioni pratiche, è prima necessario porre in giusto rilievo quest'argomento con brevi considerazioni sugli avvenimenti che condussero a questa storica invenzione. Fin dall'antichità si sapeva che se l'ambra (in greco elektron) viene strofinata, acquista il potere di attrarre corpi piccoli e leggeri, quali piume o pezzetti di carta. William Gilbert, medico della regina Elisabetta Iª e famoso per il suo De Magnete, un trattato esauriente sul magnetismo a cui per due secoli poco poté essere aggiunto, conosceva circa venti sostanze che hanno la stessa proprietà non comune dell'ambra. La sua conclusione fu che l’"effluvio" causa del fenomeno era largamente diffuso. Filosofi del diciassettesimo e diciottesimo secolo trovarono il fenomeno interessante e stabilirono alcune proprietà dell'elettricità statica, cioè di una carica elettrica da distinguersi dalla corrente elettrica. Nel i66o von Guericke inventò una macchina a strofinio per generare una continua sorgente di elettricità. Poco dopo Francis Hauksbee dimostrò che corpi elettricamente carichi possono sia respingersi sia attrarsi l'un l'altro, e nel 1729 Stephen Gray scoprì i principi basilari che portarono alla distinzione tra conduttori (principalmente metalli) e non conduttori. Fra il 1730 e il 1740 il fisico francese Charles Du Fay scoprì che l'elettricità indotta per strofinio poteva essere di due specie, ora chiamate rispettivamente positiva e negativa; e nel 1754 John Canton, un apprendista tessitore che divenne membro della Royal Society, diede allo studio dell'elettricità una base quantitativa ideando uno strumento per misurare l'elettricità, basato sulla repulsione di palline di midollo di legno, aventi cariche dello stesso segno, sospese a fili. Questo strumento importante fu normalizzato da Alessandro Volta, cosicché gli sperimentatori in vari laboratori poterono confrontare i loro risultati, e fu trasformato, divenendo l'elettroscopio a foglie d'oro, da Bennet nel 1787. Per mezzo dell'elettroscopio, Canton fu in grado di dimostrare che un corpo carico induce una carica in qualunque altro corpo gli venga avvicinato. Intanto, Musschenbroek aveva inventato la “bottiglia di Leida” per mezzo della quale una discreta quantità di elettricità poteva essere accumulata da un'apparecchiatura elettrica e poi rapidamente scaricata: questa bottiglia è, di fatto, un grosso condensatore. A Filadelfia Benjamin Franklin, facendo volare grandi aquiloni durante i temporali e ottenendo scintille all'estremità della corda a cui erano attaccati, accertò che il fulmine è una scarica elettrica. Questi esperimenti portarono all'invenzione del parafulmine, che fu adottato diffusamente per proteggere edifici, specialmente polveriere e altre costruzioni di natura particolarmente vulnerabile. La scoperta condusse a un curioso intreccio fra scienza e politica. Nacque infatti una controversia, che avrebbe dovuto essere risolta mediante esperimenti e osservazioni, sul problema se l'estremità dei parafulmini dovesse essere a punta o a pomo. Franklin giustamente sostenne che dovesse essere a punta, ma quando le colonie americane si ribellarono, e Franklin era una figura preminente fra i ribelli, Giorgio III si lasciò trascinare nel litigio e sostenne l’impiego di parafulmini a punta ottusa. Andò tanto in là, da cercare di persuadere la Royal Society a sostenere il suo punto di vista, ma il presidente, Sir John Pringle, nonostante il pericolo di offendere il reale patrono della Società, si attenne fermamente al principio scientifico e dette la risposta famosa: "Sire, non posso cambiare le leggi della natura.". Franklin, che si trovava allora in Francia per negoziare la famosa alleanza che assicurò il successo alla ribellione, espresse l'augurio che Giorgio III° attirasse su di sé i fulmini dal cielo abolendo del tutto i parafulmini. In questo periodo altre importanti ricerche venivano fatte in Italia. Le esperienze di Luigi Galvani sulle contrazioni delle zampe delle rane, che egli erroneamente attribuì a una speciale forma di elettricità animale, attrassero l'attenzione di Volta, il quale dimostrò che la sorgente dell'elettricità nell'esperienza era dovuta al contatto fra due differenti metalli in una soluzione. Da ciò si sviluppò la pila voltaica, che consiste in due lastre alternate d'argento o rame e di zinco - una scelta fatta come risultato di esperienze sistematiche - separate da flanella o da carta imbevuta di acqua salata. Questa scoperta fu comunicata alla Royal Society nel 1800: la sua enorme importanza consisteva nel fatto che procurava una semplice e conveniente sorgente di corrente elettrica continua, e così le esperienze furono molto facilitate. Una batteria elettrica di questo genere è essenzialmente una macchina per trasformare in energia elettrica l'energia prodotta nella reazione chimica, che normalmente si sviluppa sotto forma di calore. Dopo pochi mesi, grandi pile elettriche venivano costruite in molti laboratori in base al principio di Volta, e con l'aiuto di esso fu fatta una serie di importanti scoperte. L'acqua fu facilmente decomposta mediante la corrente elettrica in idrogeno e ossigeno, fornendo così una prova analitica della sua composizione alle conclusioni di Lavoisier, raggiunte con metodi di sintesi. Facendo uso della grande pila costruita dalla Royal Institution di Londra, Humphry Davy isolò con l'elettrolisi un'intera serie di nuovi metalli: prima il potassio dalla potassa, poi il sodio, il bario, lo stronzio e il magnesio. Nel 1807 Davy osservò che quando si fa scoccare una scintilla persistente tra due pezzi di carbone, viene emessa una luce brillante: questo è il principio della lampada ad arco, benché per le sue applicazioni pratiche si dovette attendere di poter disporre di una sorgente di elettricità meno costosa. Fu anche osservato che una corrente elettrica riscalda il conduttore attraverso cui passa, una scoperta messa in pratica più tardi nella lampada con filamento incandescente. Di più immediata importanza per lo sviluppo dell'industria elettrica fu la descrizione che fece nel 1820 il fisico danese, H.C. Oersted, del campo magnetico che circonda un conduttore attraversato dalla corrente elettrica. A Parigi A.-M. Ampère quasi subito portò la sua osservazione su una base quantitativa, stabilendo la relazione tra l'intensità del campo magnetico e quella della corrente elettrica che lo produce. Fu pure stabilito che il movimento di un circuito chiuso in un campo magnetico produce in esso il passaggio di una corrente elettrica. Con questi esperimenti fu stabilito il rapporto fondamentale tra elettricità e magnetismo, ma restava da compiere il passo decisivo di sfruttare praticamente la relazione trovata: questo passo fu fatto da Faraday. Nel settembre del 1831 egli usò l'azione reciproca di due campi magnetici prodotti rispettivamente da un magnete e da una corrente elettrica per ottenere un movimento. Per prima cosa, il 3 settembre, egli fece muovere intorno a un magnete fisso un filo metallico in cui passava una corrente elettrica; il giorno seguente fece muovere un magnete intorno a un filo metallico in cui passava una corrente. Sebbene il dispositivo di Faraday fosse puramente sperimentale, e non inteso per uso pratico, rappresentò un grandissimo passo avanti. Egli aveva non solo ideato il primo motore elettrico, ma, dato che la dinamo è essenzialmente un motore elettrico che lavora in inversione, aveva additata la via per la conversione dell'energia meccanica in energia elettrica. Benché vi fossero ancora molte difficoltà pratiche da risolvere, divenne possibile lo sviluppo della moderna industria elettrica. Da questo momento, la storia dell'ascesa dell'industria elettrica durante il diciannovesimo secolo può essere convenientemente divisa in tre parti principali: produzione, distribuzione e utilizzazione.
Come abbiamo visto, la maggior parte degli sviluppi tecnologici fu il risultato di scoperte empiriche fatte da tecnici: infatti, è già stato osservato che fino ai tempi relativamente recenti la tecnologia ha dato un contributo maggiore alla scienza di quanto la scienza abbia dato alla tecnologia. L'industria elettrica è un'eccezione, in quanto la sua origine e il suo sviluppo sono stati una diretta conseguenza di ricerche scientifiche; inoltre, la data di transizione da scienza sperimentale a industria può essere determinata con sufficiente precisione. L'avvenimento chiave fu la dimostrazione pratica dell'induzione elettromagnetica da parte di Michael Faraday, annunziata alla Royal Society il 24 novembre 1831. Entro breve tempo generatori elettromagnetici furono fabbricati su scala commerciale. Nonostante che il nostro scopo principale sia di occuparci di applicazioni pratiche, è prima necessario porre in giusto rilievo quest'argomento con brevi considerazioni sugli avvenimenti che condussero a questa storica invenzione. Fin dall'antichità si sapeva che se l'ambra (in greco elektron) viene strofinata, acquista il potere di attrarre corpi piccoli e leggeri, quali piume o pezzetti di carta. William Gilbert, medico della regina Elisabetta Iª e famoso per il suo De Magnete, un trattato esauriente sul magnetismo a cui per due secoli poco poté essere aggiunto, conosceva circa venti sostanze che hanno la stessa proprietà non comune dell'ambra. La sua conclusione fu che l’"effluvio" causa del fenomeno era largamente diffuso. Filosofi del diciassettesimo e diciottesimo secolo trovarono il fenomeno interessante e stabilirono alcune proprietà dell'elettricità statica, cioè di una carica elettrica da distinguersi dalla corrente elettrica. Nel i66o von Guericke inventò una macchina a strofinio per generare una continua sorgente di elettricità. Poco dopo Francis Hauksbee dimostrò che corpi elettricamente carichi possono sia respingersi sia attrarsi l'un l'altro, e nel 1729 Stephen Gray scoprì i principi basilari che portarono alla distinzione tra conduttori (principalmente metalli) e non conduttori. Fra il 1730 e il 1740 il fisico francese Charles Du Fay scoprì che l'elettricità indotta per strofinio poteva essere di due specie, ora chiamate rispettivamente positiva e negativa; e nel 1754 John Canton, un apprendista tessitore che divenne membro della Royal Society, diede allo studio dell'elettricità una base quantitativa ideando uno strumento per misurare l'elettricità, basato sulla repulsione di palline di midollo di legno, aventi cariche dello stesso segno, sospese a fili. Questo strumento importante fu normalizzato da Alessandro Volta, cosicché gli sperimentatori in vari laboratori poterono confrontare i loro risultati, e fu trasformato, divenendo l'elettroscopio a foglie d'oro, da Bennet nel 1787. Per mezzo dell'elettroscopio, Canton fu in grado di dimostrare che un corpo carico induce una carica in qualunque altro corpo gli venga avvicinato. Intanto, Musschenbroek aveva inventato la “bottiglia di Leida” per mezzo della quale una discreta quantità di elettricità poteva essere accumulata da un'apparecchiatura elettrica e poi rapidamente scaricata: questa bottiglia è, di fatto, un grosso condensatore. A Filadelfia Benjamin Franklin, facendo volare grandi aquiloni durante i temporali e ottenendo scintille all'estremità della corda a cui erano attaccati, accertò che il fulmine è una scarica elettrica. Questi esperimenti portarono all'invenzione del parafulmine, che fu adottato diffusamente per proteggere edifici, specialmente polveriere e altre costruzioni di natura particolarmente vulnerabile. La scoperta condusse a un curioso intreccio fra scienza e politica. Nacque infatti una controversia, che avrebbe dovuto essere risolta mediante esperimenti e osservazioni, sul problema se l'estremità dei parafulmini dovesse essere a punta o a pomo. Franklin giustamente sostenne che dovesse essere a punta, ma quando le colonie americane si ribellarono, e Franklin era una figura preminente fra i ribelli, Giorgio III si lasciò trascinare nel litigio e sostenne l’impiego di parafulmini a punta ottusa. Andò tanto in là, da cercare di persuadere la Royal Society a sostenere il suo punto di vista, ma il presidente, Sir John Pringle, nonostante il pericolo di offendere il reale patrono della Società, si attenne fermamente al principio scientifico e dette la risposta famosa: "Sire, non posso cambiare le leggi della natura.". Franklin, che si trovava allora in Francia per negoziare la famosa alleanza che assicurò il successo alla ribellione, espresse l'augurio che Giorgio III° attirasse su di sé i fulmini dal cielo abolendo del tutto i parafulmini. In questo periodo altre importanti ricerche venivano fatte in Italia. Le esperienze di Luigi Galvani sulle contrazioni delle zampe delle rane, che egli erroneamente attribuì a una speciale forma di elettricità animale, attrassero l'attenzione di Volta, il quale dimostrò che la sorgente dell'elettricità nell'esperienza era dovuta al contatto fra due differenti metalli in una soluzione. Da ciò si sviluppò la pila voltaica, che consiste in due lastre alternate d'argento o rame e di zinco - una scelta fatta come risultato di esperienze sistematiche - separate da flanella o da carta imbevuta di acqua salata. Questa scoperta fu comunicata alla Royal Society nel 1800: la sua enorme importanza consisteva nel fatto che procurava una semplice e conveniente sorgente di corrente elettrica continua, e così le esperienze furono molto facilitate. Una batteria elettrica di questo genere è essenzialmente una macchina per trasformare in energia elettrica l'energia prodotta nella reazione chimica, che normalmente si sviluppa sotto forma di calore. Dopo pochi mesi, grandi pile elettriche venivano costruite in molti laboratori in base al principio di Volta, e con l'aiuto di esso fu fatta una serie di importanti scoperte. L'acqua fu facilmente decomposta mediante la corrente elettrica in idrogeno e ossigeno, fornendo così una prova analitica della sua composizione alle conclusioni di Lavoisier, raggiunte con metodi di sintesi. Facendo uso della grande pila costruita dalla Royal Institution di Londra, Humphry Davy isolò con l'elettrolisi un'intera serie di nuovi metalli: prima il potassio dalla potassa, poi il sodio, il bario, lo stronzio e il magnesio. Nel 1807 Davy osservò che quando si fa scoccare una scintilla persistente tra due pezzi di carbone, viene emessa una luce brillante: questo è il principio della lampada ad arco, benché per le sue applicazioni pratiche si dovette attendere di poter disporre di una sorgente di elettricità meno costosa. Fu anche osservato che una corrente elettrica riscalda il conduttore attraverso cui passa, una scoperta messa in pratica più tardi nella lampada con filamento incandescente. Di più immediata importanza per lo sviluppo dell'industria elettrica fu la descrizione che fece nel 1820 il fisico danese, H.C. Oersted, del campo magnetico che circonda un conduttore attraversato dalla corrente elettrica. A Parigi A.-M. Ampère quasi subito portò la sua osservazione su una base quantitativa, stabilendo la relazione tra l'intensità del campo magnetico e quella della corrente elettrica che lo produce. Fu pure stabilito che il movimento di un circuito chiuso in un campo magnetico produce in esso il passaggio di una corrente elettrica. Con questi esperimenti fu stabilito il rapporto fondamentale tra elettricità e magnetismo, ma restava da compiere il passo decisivo di sfruttare praticamente la relazione trovata: questo passo fu fatto da Faraday. Nel settembre del 1831 egli usò l'azione reciproca di due campi magnetici prodotti rispettivamente da un magnete e da una corrente elettrica per ottenere un movimento. Per prima cosa, il 3 settembre, egli fece muovere intorno a un magnete fisso un filo metallico in cui passava una corrente elettrica; il giorno seguente fece muovere un magnete intorno a un filo metallico in cui passava una corrente. Sebbene il dispositivo di Faraday fosse puramente sperimentale, e non inteso per uso pratico, rappresentò un grandissimo passo avanti. Egli aveva non solo ideato il primo motore elettrico, ma, dato che la dinamo è essenzialmente un motore elettrico che lavora in inversione, aveva additata la via per la conversione dell'energia meccanica in energia elettrica. Benché vi fossero ancora molte difficoltà pratiche da risolvere, divenne possibile lo sviluppo della moderna industria elettrica. Da questo momento, la storia dell'ascesa dell'industria elettrica durante il diciannovesimo secolo può essere convenientemente divisa in tre parti principali: produzione, distribuzione e utilizzazione.
Thomas K. Derry e Trevor I. Williams
“Storia della Tecnologia”
Editore Boringhieri S.p.A.
Torino, 1977
Volume secondo, pagg. 704 e segg.
**************************
Industria elettrica: la produzione.
Prima di prendere in esame i generatori elettromagnetici che risultarono dalle scoperte di Faraday, si può concludere la storia della pila elettrica. Come abbiamo visto, la cella voltaica originaria diede un grande impulso alla ricerca sperimentale sull'elettricità. Nondimeno, la cella aveva gravi imperfezioni, fra cui la sensibile diminuzione di tensione durante il funzionamento dovuta all'accumulazione dei prodotti delle reazioni chimiche e la continua dissoluzione delle costose lastre di rame. Dei vari perfezionamenti il primo e maggiore fu la pila Leclanché del 1866.In essa i due elettrodi erano costituiti da asticelle rispettivamente di carbone e di zinco, immerse in una soluzione di cloruro ammonico: la comune batteria "a secco" introdotta verso la fine dei secolo è basata sullo stesso principio. La pila Leclanché era eccellente per fornire corrente intermittente, poiché rimaneva attiva per lunghi periodi senza bisogno di sorveglianza, ma presentava ancora il difetto della diminuzione di tensione durante il funzionamento. La crescente necessità per il telegrafo elettrico di avere una pila sicura, che desse una tensione costante e capace di un'erogazione prolungata, portò alla realizzazione di una pila inventata da J.F. Daniell nel 1836. In essa, gli elettrodi di rame e di zinco, ciascuno immerso in un differente elettrolito (rispettivamente soluzioni di solfato di rame e di acido solforico), erano separati l'uno dall'altro per mezzo di un recipiente poroso. La pila Daniell fu perfezionata nel 1853 da J. C. Fuller, il quale ne prolungò la durata usando il solfato di zinco invece dell'acido solforico; in questa forma fu adoperata per usi telegrafici finché nel decennio 70-80 fu sostituita da una pila ad acido cromico. Per uso in paesi tropicali, la pila Daniell fu modificata nel 1862 da Minotto. Le pile che abbiamo fin qui descritte sono quelle chiamate pile primarie. Gli elementi per accumulare energia o accumulatori, che possono essere caricati da qualche altra sorgente di elettricità e scaricati quando necessario, derivarono in gran parte dal lavoro fatto nel decennio 1860-70 dal francese R.L.G. Planté: le sue batterie furono presentate nel 1878 e vennero in uso circa due anni dopo. L'accumulatore Planté consisteva essenzialmente in elettrodi di piombo, a forma di grandi lastre immerse in acido solforico. Quando veniva caricata, la lastra positiva si copriva di perossido di piombo; quando veniva scaricata, la reazione, chimica si invertiva. Per mezzo di un complicato sistema di carica e scarica gli elettrodi erano resi "spugnosi”, incrementando così la superficie effettiva e conseguentemente la capacità di accumulazione dell'elemento. Questa "formazione" elettrica delle lastre fu realizzata da un altro inventore francese, Faure, il quale applicò su di esse una pasta di acido solforico e piombo rosso; più tardi altri inventori escogitarono metodi migliori per far aderire la pasta. Fin dal decennio 1880-90 gli accumulatori venivano utilizzati per l'illuminazione di vagoni ferroviari e per azionare veicoli stradali. Il loro peso, però, ne limitava grandemente l'uso. Nel 1888, per esempio, un accumulatore di 660 ampère-ora, progettato per illuminazione, poteva pesare fino a 127 chilogrammi. Benché le batterie fossero, e anzi restino, una convenientissima fonte di elettricità per un gran numero di scopi, l'impiego diffuso dell'elettricità per riscaldamento, illuminazione ed energia motrice dipese dallo sviluppo dei metodi meccanici di produzione. Entro un anno dalla lettura della famosa relazione di Faraday, fatta nel 1831 davanti alla Royal Society, il primo generatore meccanico fu esposto a Parigi da un costruttore di strumenti, Hippolyte Pixii; nel suo generatore, fatto girare a mano, il rocchetto era fisso e la calamita a ferro di cavallo ruotava. Ma prima che fosse passato un anno fu presentata a Cambridge a un congresso della British Association for the Advancement of Science una macchina in cui era utilizzato il principio opposto, cioè la rotazione delle bobine rispetto a un magnete fisso: questo principio è attualmente di uso generale. Intorno al 1834 i generatori a bobine rotanti erano fabbricati e messi in commercio a Londra. I primi generatori producevano corrente alternata: cioè, la direzione del flusso s'invertiva costantemente con una frequenza che dipendeva dalla velocità con cui la macchina girava. Questo era considerato uno dei più seri svantaggi, in parte almeno, perché tutti gli operai erano abituati a lavorare con la corrente continua erogata da batterie; ma verso la fine del secolo si accorsero che per l'uso su vasta scala la corrente alternata aveva decisivi vantaggi rispetto a quella continua. Nel frattempo, il problema della trasformazione della corrente alternata in continua fu risolto con l'invenzione del collettore. Un collettore progettato da Ampère fu applicato a un primitivo generatore fabbricato da Pixii. Seguirono presto altri sviluppi. In una semplice bobina rettangolare che ruota in un campo magnetico si produce una corrente la cui tensione varia notevolmente in rapporto alla velocità di rotazione. Per ovviare a ciò, fu ideata una combinazione di bobine, cioè l'indotto. Poiché infatti la tensione massima era generata successivamente in ciascuna spira, le irregolarità erano in gran parte bilanciate, e a una data velocità di rotazione poteva essere prodotta una corrente abbastanza costante. Già nel 1825, elettromagneti alimentati da batterie venivano usati da William Sturgeon, fondatore della prima rivista elettrica inglese, Annals of Electricity, in sostituzione di magneti permanenti. Da ciò scaturì un ulteriore sviluppo della massima importanza, cioè il principio dell'autoeccitazione. Nel 1855, l'ingegnere danese Soren Hjorth ottenne, senza mai sfruttarlo, un brevetto inglese dimostrante l'affermazione che, una volta avviata la macchina, gli elettromagneti potevano essere eccitati non da batterie esterne ma con la derivazione di parte dell'elettricità generata. L'eccitazione iniziale doveva, tuttavia, essere fornita da magneti permanenti. Dieci anni passarono prima di capire che gli elettromagneti possedevano un sufficiente magnetismo residuo nel loro nucleo di ferro dolce da produrre il campo magnetico necessario per dare inizio all'erogazione di un generatore elettrico. La scoperta del principio dell'autoeccitazione è attribuita a C. F. Varley, che lo rivelò in un brevetto chiesto alla fine del 1866 ma non concesso fino all'estate dell'anno seguente. Nel frattempo, Werner von Siemens, ritenuto l'inventore della parola "dinamo" aveva dimostrato questo principio all'Accademia delle Scienze di Berlino, e il fratello Guglielmo l'aveva esposto alla Royal Society a Londra; in quest'ultimo congresso Charles Wheatstone presentò un generatore che funzionava in base al medesimo principio. Altri inventori, però, in quello stesso periodo lavoravano intorno alla stessa idea. Henry Wilde, un fabbricante di materiale elettrico le cui idee ebbero notevole influenza su Siemens, enunciò quasi completamente il principio dell'autoeccitazione in una comunicazione letta alla Royal Society nell'aprile del 1866, e poco dopo, nello stesso anno, un inventore americano, Moses Farmer, scrisse a Wilde in termini indicanti che anch'egli aveva scoperto indipendentemente lo stesso principio. Si è anche affermato che fin dal 1861 un fisico ungherese, Anyos Jedlik, avesse impiegato questo principio a Budapest in una macchina sperimentale. I particolari di queste asserzioni non hanno molta importanza, essendo sufficiente affermare che l'autoeccitazione si è definitivamente affermata nel 1866. L'importanza di questa scoperta sta nel fatto che rese autonomo il generatore elettrico: esso cioè diventò una macchina che bastava far rotare per produrre elettricità per tutto il tempo desiderato. Un altro passo verso l'impiego dell'elettricità su larga scala fu compiuto con l'uso di una macchina a vapore per far rotare l'indotto; quest'applicazione fu dimostrata in modo convincente in Inghilterra nel 1857 per la produzione di elettricità destinata all'alimentazione delle lampade ad arco per fari. C'erano ancora, nondimeno, da apportare altri importanti perfezionamenti tecnici: in particolare mancavano generatori capaci di dare un rendimento soddisfacente per lunghi periodi. Un indotto perfezionato fu brevettato provvisoriamente da Werner von Siemens nel 1856, e si diffuse estesamente, benché avesse gravi difetti intrinsechi; esso generava cioè tanto calore (con conseguente grande perdita di potenza), che su grosse macchine era necessario il raffreddamento ad acqua. Un miglior indotto ad anello fu ideato nel 1860 dal fisico italiano Antonio Pacinotti, ma la descrizione, ch'egli pubblicò quattro anni più tardi, inspiegabilmente attrasse scarsa attenzione. Molto più importante per le sue decisive applicazioni pratiche fu un indotto ad anello di Z. T. Gramme, introdotto nel 1870; le dinamo di Gramme, progettate principalmente per essere azionate da macchine a vapore, potevano fornire corrente in continuazione senza surriscaldarsi, e furono largamente adottate nel giro di pochi anni. L'indotto ad anello di Gramme fu perfezionato da Emil Bürgin di Basilea, da R. E. B. Crompton in Inghilterra, e dall'ingegnere svedese Jonas Wenström. In Germania, la società Siemens e Halske rispose alla sfida del modello di Gramme introducendo l'indotto a tamburo, che col tempo sostituì l'indotto ad anello. Fra il 1880 e il 1890 il giovane Ferranti, seguendo un precedente suggerimento di William Thomson (poi Lord Kelvin), ideò un indotto con un avvolgimento continuo di filo di rame. Nel frattempo, le possibilità offerte dalla lampada ad arco per illuminare le strade e i grandi edifici, e in particolare dalle lampade a filamento di Edison e di Swan per uso domestico, insieme con le crescenti esigenze dell'industria, avevano rese necessarie la progettazione e la costruzione di generatori di energia elettrica di notevoli dimensioni. Prima di descrivere questi ultimi, tuttavia, è opportuno esaminare una difficoltà che permaneva e dava luogo a molte controversie. I primi generatori, si ricorderà, non erano considerati soddisfacenti, perché fornivano corrente alternata, non di rado causa di inconvenienti, se doveva essere usata come corrente continua, per esempio per scopi elettrochimici. Nel decennio 1880-90, tuttavia, emerse sempre più il fatto che la corrente alternata presentava indiscutibili vantaggi pratici. Un fattore importantissimo era che nel trasporto a lunga distanza, le perdite di energia erano molto minori per le alte tensioni che per le basse, mentre per ragioni tecniche la costruzione di generatori di corrente continua ad alta tensione presentava grandi difficoltà. La trasformazione della corrente alternata da alta in bassa tensione per usi ordinari era facilmente effettuata mediante un trasformatore, il principio del quale era stato esposto da Faraday nel 1831, benché passassero una cinquantina d'anni prima che entrasse nell'uso generale. D'altra parte, l'accoppiamento di alternatori nelle centrali elettriche presentava grandi difficoltà pratiche. La discussione ebbe una svolta decisiva a favore della corrente alternata quando nel 1893 George Westinghouse, un forte assertore americano di questo sistema, l'adottò per i primi generatori idroelettrici alle Cascate del Niagara. Ciò nonostante furono installati molti impianti a corrente continua e anche oggi, quando la corrente alternata è quasi universale per usi generali, esistono ancora zone isolate rifornite a corrente continua. Abbiamo già visto che lo sviluppo dell'industria del gas deve molto alla convinzione di Winsor che nel futuro avrebbe prevalso non la produzione sul posto ma la distribuzione del gas da grandi stabili- menti centrali. Nell'industria elettrica Ferranti occupa una posizione analoga a quella che Winsor occupò nell'industria del gas ottant'anni prima: la sua difesa del concetto della larga distribuzione ad alta tensione trovò pratica attuazione nel 1889, quando cominciò a funzionare la centrale che egli aveva progettata e costruita a Deptford per la London Electricity Supply Corporation; l'impianto comprendeva quattro macchine a vapore di 10000 cavalli-vapore, che azionavano alternatori da 10000 volt, e due macchine di 1250 cavalli- vapore che azionavano alternatori da 5000 volt. Ferranti è inoltre autore di 176 invenzioni inclusi un alternatore, cavi, e un contatore elettrico per misurare il consumo degli utenti della sua società. La centrale di Deptford fu il prototipo delle installazioni moderne, ma non la prima di una certa consistenza. Già fin dal 1875 un generatore Gramme era stato installato alla Gare du Nord di Parigi per fornire l'energia alle lampade ad arco, e nello stesso anno un mulino a Mülhausen e la fabbrica Menier di cioccolata a Noisiel-sur-Marne furono fra le aziende che adottarono il nuovo sistema. Nel negozio di Wanamaker a Filadelfia fu installato un impianto generatore nel 1878 perché potesse essere illuminato con lampade ad arco; a New York la centrale di generatori Edison in Pearl Street entrò in funzione nel 1882. A Londra l'impianto del viadotto Holborn fu inaugurato qualche settimana prima della centrale di PearlStreet, e l'impianto di lampade ad arco nel teatro Gaiety nello stesso anno fece molta pubblicità alle possibilità dei generatori di quel tempo. Nel 1883 una piccola centrale, rilevata poi dalla London Electricity Supply Corporation, fu costruita per illuminare la Grosvenor Gallery, e l'elettricità eccedente era venduta a clienti locali; a Brighton nel 1887 fu costruita una centrale per sopperire alle necessità locali. Quanto alla macchina a vapore, è stato messo in rilievo che Parsons iniziò esperimenti con le turbine perché l'industria elettrica richiedeva per le sue dinamo macchine capaci di velocità di rotazione maggiore di quella che sembrava possibile ottenere con la macchina a vapore alternativa. Nel 1888 il suo primo turboalternatore, che funzionava a 4800 giri al minuto, fu installato nella centrale di Forth Banks. Esso aveva una potenza iniziale di 75 chilowatt; ma entro il 1900 egli aveva costruito due turboalternatori da 1000 chilowatt a Elberfeld in Germania. Nel frattempo, la crescente richiesta di elettricità portò a rivolgere l'attenzione alla possibilità di utilizzare una delle più antiche fonti di forza motrice, la ruota idraulica, il cui primitivo sviluppo è stato altrove descritto. Questa era stata perfezionata in modo decisivo da Benoit Fourneyron nel 1827 con la sua turbina a reazione centrifuga, che gli valse un premio dalla Société d'Encouragement francese. Una delle sue prime macchine funzionava a 2300 giri al minuto con una caduta d'acqua di circa 106 metri. Ma tali cadute d'acqua non sono frequenti in Europa, e perciò le macchine Fourneyron furono sostituite dalla più adatta turbina di Jonval a flusso assiale, che fu introdotta nel 1843. Essa fu seguita dalla turbina a reazione centripeta, che fu ideata da Poncelet nel 1826 e costruita in una forma rozza da Howd a New York una decina d'anni più tardi; fu molto perfezionata da James Francis e da James Thomson, che realizzarono la "ruota a vortice" nel 1852. Verso il 1870 un ingegnere minerario inglese, Lester Pelton, lavorando nei campi auriferi della California scoprì, in seguito a un guasto di una semplice ruota idraulica, che ruote veloci e potenti potevano essere azionate dirigendo getti d'acqua ad alta pressione contro tazze semisferiche disposte intorno a una circonferenza. Entro venti anni una ruota del tipo Pelton, azionata dal getto alimentato da una caduta d'acqua di 132 metri, entrò in funzione nell'Alaska. La prima grande installazione idroelettrica, progettata per una produzione di 200.000 cavalli-vapore, fu iniziata a Niagara nel 1886, dopo ben sedici anni di progettazione. In origine era stato progettato di do- tarla di turbine del tipo Jonval, ma all'atto pratico furono installate due ruote a reazione centrifuga tipo Fourneyron, che producevano ciascuna 5500 cavalli-vapore, dalla Niagara Falls Power Company nel 1895; molto presto furono però sostituite da turbine del tipo Francis. Anche le turbine a flusso assiale di Jonval entrarono presto in uso. Mentre gli impianti idroelettrici andavano acquistando crescente importanza, il loro funzionamento con esito favorevole richiedeva sia un eccezionale complesso di circostanze locali sia in generale un notevolissimo impiego di capitali. Alla fine del diciannovesimo secolo, le macchine a vapore alimentate a carbone erano ancora i principali, e non molto economici, motori primari nelle centrali elettriche: nei seguenti trent'anni la produzione per addetto nelle centrali americane fu triplicata, e solo negli ultimi dieci anni di quel periodo il consumo di carbone per unità di elettricità prodotta in America e in Inghilterra diminuì quasi del 44%.
Prima di prendere in esame i generatori elettromagnetici che risultarono dalle scoperte di Faraday, si può concludere la storia della pila elettrica. Come abbiamo visto, la cella voltaica originaria diede un grande impulso alla ricerca sperimentale sull'elettricità. Nondimeno, la cella aveva gravi imperfezioni, fra cui la sensibile diminuzione di tensione durante il funzionamento dovuta all'accumulazione dei prodotti delle reazioni chimiche e la continua dissoluzione delle costose lastre di rame. Dei vari perfezionamenti il primo e maggiore fu la pila Leclanché del 1866.In essa i due elettrodi erano costituiti da asticelle rispettivamente di carbone e di zinco, immerse in una soluzione di cloruro ammonico: la comune batteria "a secco" introdotta verso la fine dei secolo è basata sullo stesso principio. La pila Leclanché era eccellente per fornire corrente intermittente, poiché rimaneva attiva per lunghi periodi senza bisogno di sorveglianza, ma presentava ancora il difetto della diminuzione di tensione durante il funzionamento. La crescente necessità per il telegrafo elettrico di avere una pila sicura, che desse una tensione costante e capace di un'erogazione prolungata, portò alla realizzazione di una pila inventata da J.F. Daniell nel 1836. In essa, gli elettrodi di rame e di zinco, ciascuno immerso in un differente elettrolito (rispettivamente soluzioni di solfato di rame e di acido solforico), erano separati l'uno dall'altro per mezzo di un recipiente poroso. La pila Daniell fu perfezionata nel 1853 da J. C. Fuller, il quale ne prolungò la durata usando il solfato di zinco invece dell'acido solforico; in questa forma fu adoperata per usi telegrafici finché nel decennio 70-80 fu sostituita da una pila ad acido cromico. Per uso in paesi tropicali, la pila Daniell fu modificata nel 1862 da Minotto. Le pile che abbiamo fin qui descritte sono quelle chiamate pile primarie. Gli elementi per accumulare energia o accumulatori, che possono essere caricati da qualche altra sorgente di elettricità e scaricati quando necessario, derivarono in gran parte dal lavoro fatto nel decennio 1860-70 dal francese R.L.G. Planté: le sue batterie furono presentate nel 1878 e vennero in uso circa due anni dopo. L'accumulatore Planté consisteva essenzialmente in elettrodi di piombo, a forma di grandi lastre immerse in acido solforico. Quando veniva caricata, la lastra positiva si copriva di perossido di piombo; quando veniva scaricata, la reazione, chimica si invertiva. Per mezzo di un complicato sistema di carica e scarica gli elettrodi erano resi "spugnosi”, incrementando così la superficie effettiva e conseguentemente la capacità di accumulazione dell'elemento. Questa "formazione" elettrica delle lastre fu realizzata da un altro inventore francese, Faure, il quale applicò su di esse una pasta di acido solforico e piombo rosso; più tardi altri inventori escogitarono metodi migliori per far aderire la pasta. Fin dal decennio 1880-90 gli accumulatori venivano utilizzati per l'illuminazione di vagoni ferroviari e per azionare veicoli stradali. Il loro peso, però, ne limitava grandemente l'uso. Nel 1888, per esempio, un accumulatore di 660 ampère-ora, progettato per illuminazione, poteva pesare fino a 127 chilogrammi. Benché le batterie fossero, e anzi restino, una convenientissima fonte di elettricità per un gran numero di scopi, l'impiego diffuso dell'elettricità per riscaldamento, illuminazione ed energia motrice dipese dallo sviluppo dei metodi meccanici di produzione. Entro un anno dalla lettura della famosa relazione di Faraday, fatta nel 1831 davanti alla Royal Society, il primo generatore meccanico fu esposto a Parigi da un costruttore di strumenti, Hippolyte Pixii; nel suo generatore, fatto girare a mano, il rocchetto era fisso e la calamita a ferro di cavallo ruotava. Ma prima che fosse passato un anno fu presentata a Cambridge a un congresso della British Association for the Advancement of Science una macchina in cui era utilizzato il principio opposto, cioè la rotazione delle bobine rispetto a un magnete fisso: questo principio è attualmente di uso generale. Intorno al 1834 i generatori a bobine rotanti erano fabbricati e messi in commercio a Londra. I primi generatori producevano corrente alternata: cioè, la direzione del flusso s'invertiva costantemente con una frequenza che dipendeva dalla velocità con cui la macchina girava. Questo era considerato uno dei più seri svantaggi, in parte almeno, perché tutti gli operai erano abituati a lavorare con la corrente continua erogata da batterie; ma verso la fine del secolo si accorsero che per l'uso su vasta scala la corrente alternata aveva decisivi vantaggi rispetto a quella continua. Nel frattempo, il problema della trasformazione della corrente alternata in continua fu risolto con l'invenzione del collettore. Un collettore progettato da Ampère fu applicato a un primitivo generatore fabbricato da Pixii. Seguirono presto altri sviluppi. In una semplice bobina rettangolare che ruota in un campo magnetico si produce una corrente la cui tensione varia notevolmente in rapporto alla velocità di rotazione. Per ovviare a ciò, fu ideata una combinazione di bobine, cioè l'indotto. Poiché infatti la tensione massima era generata successivamente in ciascuna spira, le irregolarità erano in gran parte bilanciate, e a una data velocità di rotazione poteva essere prodotta una corrente abbastanza costante. Già nel 1825, elettromagneti alimentati da batterie venivano usati da William Sturgeon, fondatore della prima rivista elettrica inglese, Annals of Electricity, in sostituzione di magneti permanenti. Da ciò scaturì un ulteriore sviluppo della massima importanza, cioè il principio dell'autoeccitazione. Nel 1855, l'ingegnere danese Soren Hjorth ottenne, senza mai sfruttarlo, un brevetto inglese dimostrante l'affermazione che, una volta avviata la macchina, gli elettromagneti potevano essere eccitati non da batterie esterne ma con la derivazione di parte dell'elettricità generata. L'eccitazione iniziale doveva, tuttavia, essere fornita da magneti permanenti. Dieci anni passarono prima di capire che gli elettromagneti possedevano un sufficiente magnetismo residuo nel loro nucleo di ferro dolce da produrre il campo magnetico necessario per dare inizio all'erogazione di un generatore elettrico. La scoperta del principio dell'autoeccitazione è attribuita a C. F. Varley, che lo rivelò in un brevetto chiesto alla fine del 1866 ma non concesso fino all'estate dell'anno seguente. Nel frattempo, Werner von Siemens, ritenuto l'inventore della parola "dinamo" aveva dimostrato questo principio all'Accademia delle Scienze di Berlino, e il fratello Guglielmo l'aveva esposto alla Royal Society a Londra; in quest'ultimo congresso Charles Wheatstone presentò un generatore che funzionava in base al medesimo principio. Altri inventori, però, in quello stesso periodo lavoravano intorno alla stessa idea. Henry Wilde, un fabbricante di materiale elettrico le cui idee ebbero notevole influenza su Siemens, enunciò quasi completamente il principio dell'autoeccitazione in una comunicazione letta alla Royal Society nell'aprile del 1866, e poco dopo, nello stesso anno, un inventore americano, Moses Farmer, scrisse a Wilde in termini indicanti che anch'egli aveva scoperto indipendentemente lo stesso principio. Si è anche affermato che fin dal 1861 un fisico ungherese, Anyos Jedlik, avesse impiegato questo principio a Budapest in una macchina sperimentale. I particolari di queste asserzioni non hanno molta importanza, essendo sufficiente affermare che l'autoeccitazione si è definitivamente affermata nel 1866. L'importanza di questa scoperta sta nel fatto che rese autonomo il generatore elettrico: esso cioè diventò una macchina che bastava far rotare per produrre elettricità per tutto il tempo desiderato. Un altro passo verso l'impiego dell'elettricità su larga scala fu compiuto con l'uso di una macchina a vapore per far rotare l'indotto; quest'applicazione fu dimostrata in modo convincente in Inghilterra nel 1857 per la produzione di elettricità destinata all'alimentazione delle lampade ad arco per fari. C'erano ancora, nondimeno, da apportare altri importanti perfezionamenti tecnici: in particolare mancavano generatori capaci di dare un rendimento soddisfacente per lunghi periodi. Un indotto perfezionato fu brevettato provvisoriamente da Werner von Siemens nel 1856, e si diffuse estesamente, benché avesse gravi difetti intrinsechi; esso generava cioè tanto calore (con conseguente grande perdita di potenza), che su grosse macchine era necessario il raffreddamento ad acqua. Un miglior indotto ad anello fu ideato nel 1860 dal fisico italiano Antonio Pacinotti, ma la descrizione, ch'egli pubblicò quattro anni più tardi, inspiegabilmente attrasse scarsa attenzione. Molto più importante per le sue decisive applicazioni pratiche fu un indotto ad anello di Z. T. Gramme, introdotto nel 1870; le dinamo di Gramme, progettate principalmente per essere azionate da macchine a vapore, potevano fornire corrente in continuazione senza surriscaldarsi, e furono largamente adottate nel giro di pochi anni. L'indotto ad anello di Gramme fu perfezionato da Emil Bürgin di Basilea, da R. E. B. Crompton in Inghilterra, e dall'ingegnere svedese Jonas Wenström. In Germania, la società Siemens e Halske rispose alla sfida del modello di Gramme introducendo l'indotto a tamburo, che col tempo sostituì l'indotto ad anello. Fra il 1880 e il 1890 il giovane Ferranti, seguendo un precedente suggerimento di William Thomson (poi Lord Kelvin), ideò un indotto con un avvolgimento continuo di filo di rame. Nel frattempo, le possibilità offerte dalla lampada ad arco per illuminare le strade e i grandi edifici, e in particolare dalle lampade a filamento di Edison e di Swan per uso domestico, insieme con le crescenti esigenze dell'industria, avevano rese necessarie la progettazione e la costruzione di generatori di energia elettrica di notevoli dimensioni. Prima di descrivere questi ultimi, tuttavia, è opportuno esaminare una difficoltà che permaneva e dava luogo a molte controversie. I primi generatori, si ricorderà, non erano considerati soddisfacenti, perché fornivano corrente alternata, non di rado causa di inconvenienti, se doveva essere usata come corrente continua, per esempio per scopi elettrochimici. Nel decennio 1880-90, tuttavia, emerse sempre più il fatto che la corrente alternata presentava indiscutibili vantaggi pratici. Un fattore importantissimo era che nel trasporto a lunga distanza, le perdite di energia erano molto minori per le alte tensioni che per le basse, mentre per ragioni tecniche la costruzione di generatori di corrente continua ad alta tensione presentava grandi difficoltà. La trasformazione della corrente alternata da alta in bassa tensione per usi ordinari era facilmente effettuata mediante un trasformatore, il principio del quale era stato esposto da Faraday nel 1831, benché passassero una cinquantina d'anni prima che entrasse nell'uso generale. D'altra parte, l'accoppiamento di alternatori nelle centrali elettriche presentava grandi difficoltà pratiche. La discussione ebbe una svolta decisiva a favore della corrente alternata quando nel 1893 George Westinghouse, un forte assertore americano di questo sistema, l'adottò per i primi generatori idroelettrici alle Cascate del Niagara. Ciò nonostante furono installati molti impianti a corrente continua e anche oggi, quando la corrente alternata è quasi universale per usi generali, esistono ancora zone isolate rifornite a corrente continua. Abbiamo già visto che lo sviluppo dell'industria del gas deve molto alla convinzione di Winsor che nel futuro avrebbe prevalso non la produzione sul posto ma la distribuzione del gas da grandi stabili- menti centrali. Nell'industria elettrica Ferranti occupa una posizione analoga a quella che Winsor occupò nell'industria del gas ottant'anni prima: la sua difesa del concetto della larga distribuzione ad alta tensione trovò pratica attuazione nel 1889, quando cominciò a funzionare la centrale che egli aveva progettata e costruita a Deptford per la London Electricity Supply Corporation; l'impianto comprendeva quattro macchine a vapore di 10000 cavalli-vapore, che azionavano alternatori da 10000 volt, e due macchine di 1250 cavalli- vapore che azionavano alternatori da 5000 volt. Ferranti è inoltre autore di 176 invenzioni inclusi un alternatore, cavi, e un contatore elettrico per misurare il consumo degli utenti della sua società. La centrale di Deptford fu il prototipo delle installazioni moderne, ma non la prima di una certa consistenza. Già fin dal 1875 un generatore Gramme era stato installato alla Gare du Nord di Parigi per fornire l'energia alle lampade ad arco, e nello stesso anno un mulino a Mülhausen e la fabbrica Menier di cioccolata a Noisiel-sur-Marne furono fra le aziende che adottarono il nuovo sistema. Nel negozio di Wanamaker a Filadelfia fu installato un impianto generatore nel 1878 perché potesse essere illuminato con lampade ad arco; a New York la centrale di generatori Edison in Pearl Street entrò in funzione nel 1882. A Londra l'impianto del viadotto Holborn fu inaugurato qualche settimana prima della centrale di PearlStreet, e l'impianto di lampade ad arco nel teatro Gaiety nello stesso anno fece molta pubblicità alle possibilità dei generatori di quel tempo. Nel 1883 una piccola centrale, rilevata poi dalla London Electricity Supply Corporation, fu costruita per illuminare la Grosvenor Gallery, e l'elettricità eccedente era venduta a clienti locali; a Brighton nel 1887 fu costruita una centrale per sopperire alle necessità locali. Quanto alla macchina a vapore, è stato messo in rilievo che Parsons iniziò esperimenti con le turbine perché l'industria elettrica richiedeva per le sue dinamo macchine capaci di velocità di rotazione maggiore di quella che sembrava possibile ottenere con la macchina a vapore alternativa. Nel 1888 il suo primo turboalternatore, che funzionava a 4800 giri al minuto, fu installato nella centrale di Forth Banks. Esso aveva una potenza iniziale di 75 chilowatt; ma entro il 1900 egli aveva costruito due turboalternatori da 1000 chilowatt a Elberfeld in Germania. Nel frattempo, la crescente richiesta di elettricità portò a rivolgere l'attenzione alla possibilità di utilizzare una delle più antiche fonti di forza motrice, la ruota idraulica, il cui primitivo sviluppo è stato altrove descritto. Questa era stata perfezionata in modo decisivo da Benoit Fourneyron nel 1827 con la sua turbina a reazione centrifuga, che gli valse un premio dalla Société d'Encouragement francese. Una delle sue prime macchine funzionava a 2300 giri al minuto con una caduta d'acqua di circa 106 metri. Ma tali cadute d'acqua non sono frequenti in Europa, e perciò le macchine Fourneyron furono sostituite dalla più adatta turbina di Jonval a flusso assiale, che fu introdotta nel 1843. Essa fu seguita dalla turbina a reazione centripeta, che fu ideata da Poncelet nel 1826 e costruita in una forma rozza da Howd a New York una decina d'anni più tardi; fu molto perfezionata da James Francis e da James Thomson, che realizzarono la "ruota a vortice" nel 1852. Verso il 1870 un ingegnere minerario inglese, Lester Pelton, lavorando nei campi auriferi della California scoprì, in seguito a un guasto di una semplice ruota idraulica, che ruote veloci e potenti potevano essere azionate dirigendo getti d'acqua ad alta pressione contro tazze semisferiche disposte intorno a una circonferenza. Entro venti anni una ruota del tipo Pelton, azionata dal getto alimentato da una caduta d'acqua di 132 metri, entrò in funzione nell'Alaska. La prima grande installazione idroelettrica, progettata per una produzione di 200.000 cavalli-vapore, fu iniziata a Niagara nel 1886, dopo ben sedici anni di progettazione. In origine era stato progettato di do- tarla di turbine del tipo Jonval, ma all'atto pratico furono installate due ruote a reazione centrifuga tipo Fourneyron, che producevano ciascuna 5500 cavalli-vapore, dalla Niagara Falls Power Company nel 1895; molto presto furono però sostituite da turbine del tipo Francis. Anche le turbine a flusso assiale di Jonval entrarono presto in uso. Mentre gli impianti idroelettrici andavano acquistando crescente importanza, il loro funzionamento con esito favorevole richiedeva sia un eccezionale complesso di circostanze locali sia in generale un notevolissimo impiego di capitali. Alla fine del diciannovesimo secolo, le macchine a vapore alimentate a carbone erano ancora i principali, e non molto economici, motori primari nelle centrali elettriche: nei seguenti trent'anni la produzione per addetto nelle centrali americane fu triplicata, e solo negli ultimi dieci anni di quel periodo il consumo di carbone per unità di elettricità prodotta in America e in Inghilterra diminuì quasi del 44%.
Thomas K. Derry e Trevor I. Williams
“Storia della Tecnologia”
Editore Boringhieri S.p.A.
Torino, 1977
Volume secondo, pagg. 704 e segg.
**************************
Industria elettrica: distribuzione.
Come abbiamo visto, gli anni
fra il 1880 e il 1890 videro l'inizio del generale riconoscimento dei vantaggi
economici di centrali per produrre elettricità ad alta tensione e per servire
vaste zone: l'accettazione di questo principio fu accompagnato da nuovi
problemi concernenti la distribuzione, sia pratici sia finanziari. La
distinzione fra conduttori e isolanti era stata fatta nel diciottesimo secolo,
e l'isolamento dei fili metallici per uso elettrico divenne un importante campo
di attività dei primi ricercatori. Presto fu individuata l'alta conducibilità
dei metalli, specialmente del rame e dell'argento, e diventarono di largo
impiego fili di questi metalli (e di ferro, meno costoso ma più facilmente
corrodibile e meno conduttore). Per taluni usi le proprietà isolanti dell'aria
erano sufficienti, sí che era necessario apprestare l'isolamento, per esempio
con vetro, ceramica, o zolfo, soltanto nei punti di appoggio. Ma fili
completamente isolati erano sempre più richiesti, e all'inizio vennero
preparati avvolgendoli laboriosamente a mano con seta o cotone e poi
rivestendoli con una vernice protettiva. Tuttavia dopo il 1840 vennero in uso
altri isolatori e metodi di produzione in serie di fili isolati, mentre un
potente incentivo era dato anche dallo sviluppo del telegrafo elettrico. Tra il
1850 e il 1860 l'espansione dell'industria elettrica in generale, e del
telegrafo elettrico in particolare, richiese un enorme numero di isolatori di
porcellana per i pali del telegrafo, e dal 1888 si cominciò a usare ceramica
fabbricata con steatite per lo stesso scopo. Verso la fine del secolo,
cominciarono a essere usati isolatori a olio sigillati, per impedire scariche
ad alta tensione attraverso sottili veli di umidità sulla superficie.
Per cavi sotterranei, necessari
nella maggior parte delle aree urbane, dato che le autorità non permettevano la
stesura di fili per aria, nel 1848 Hancock inventò una macchina per rivestire
il filo con guttaperca (ottenuta dall'albero percha della Malacca). In breve tempo fu trovato anche il mezzo
d'includere diversi fili, l'uno isolato dall'altro, entro una sola guaina di
guttaperca. Ma la guttaperca non era molto soddisfacente perché facilmente
deperibile. La guttaperca vulcanizzata fu introdotta nel 1850, ma sorsero
difficoltà a causa della corrosione del rame prodotta dallo zolfo usato nella
vulcanizzazione; nell'anno seguente furono fatti tentativi d'isolare i fili
telegrafici col bitume. Per quanto questo primo tentativo non avesse avuto buon
esito, sostanze bituminose furono più tardi largamente usate per cavi per il
trasporto di energia. Poiché robustezza meccanica e resistenza alle abrasioni e
a pesanti condizioni d'impiego divennero sempre più importanti, cominciò a
essere usato il cavo armato. Furono introdotti nel 1850 cavi ricoperti di
piombo, mentre rivestimenti di tessuto furono usati per condizioni meno
impegnative. Nel 1852 ebbe inizio la pratica moderna di contraddistinguere gli
elementi di un cavo a più fili col dare a ciascun filo un colore diverso.
Alla fine del secolo, la gomma
era considerata il migliore materiale isolante, sebbene relativamente costoso,
per cavi di uso generale. Come per la guttaperca vulcanizzata, sorsero
difficoltà a causa della combinazione chimica tra i fili di rame e lo zolfo,
contenuto nella gomma vulcanizzata, ma quest'inconveniente fu superato
stagnando il filo prima di rivestirlo. I problemi particolari della centrale di
Deptford condussero Ferranti a indagare sulla possibilità della carta come
isolante per l'alta tensione: questo ambizioso programma fu affrontato quando
non soltanto non esistevano generatori o trasformatori capaci di funzionare a
più di 2500 volt, ma neppure cavi adatti per la distribuzione dell'energia. Gli
esperimenti di Ferranti con conduttori composti di tubi di rame concentrici
separati da carta cerata avvolta a spirale ottennero tanto successo che tale
dispositivo fu la pratica generalmente adottata per molti anni. Questo tipo di
cavo aveva certi vantaggi intrinsechi, a parte il fatto di adempiere al pesante
servizio richiestogli. Era particolarmente adatto all'impiego in corrente
alternata, perché aveva la più bassa capacità elettrostatica che si potesse
ottenere con qualsiasi altro materiale isolante. Inoltre il modello concentrico
aveva il vantaggio che il cavo non aveva alcun effetto induttivo su linee
telegrafiche, telefoniche o altri impianti elettrici posti nelle vicinanze,
fattore di primaria importanza poiché la rete elettrica sotto le strade delle
città diventava sempre più complessa. Già alla fine del secolo, erano in uso
tre sistemi principali di distribuzione sotterranea dell'elettricità. Nel primo
i cavi, separati da ponticelli in legno, erano completamente incassati nel
bitume in cassette di ghisa: uno degli svantaggi di questo sistema era che non
si poteva togliere il cavo in caso di guasti. Se era necessario prevedere la
sostituzione dei cavi, essi erano disposti separatamente entro cunicoli,
formati da spezzoni lunghi 1,80 metri, fabbricati in calcestruzzo bituminoso,
che è per se stesso un isolante: venivano collocate inoltre cassette a inter-
valli tali che in caso di guasto il breve tratto del cavo interessato potesse
essere tolto senza disturbare tutto il complesso. Nel terzo sistema, il cavo
era fortemente protetto in modo da poterlo stendere direttamente nel suolo; il
conduttore era avvolto successivamente in carta, cotone bitumato, e piombo, e
poi ancora protetto con altro bitume, filo d'acciaio, e un rivestimento esterno
di tessuto bitumato.
Alla metà del diciannovesimo
secolo la richiesta di rame, metallo discretamente costoso, da parte
dell'industria elettrica era diventata così forte che si cominciò a studiare il
modo di economizzarlo: il primo cavo telegrafico atlantico del 185 8, per
esempio, richiese non meno di 2 7 000 chilometri di filo di rame a trefoli. Nel
1881 Lord Kelvin, in una comunicazione alla British Association for the
Advancement of Science, enunciò un principio scientifico che poteva servire da
guida per la più economica costruzione di un conduttore. Nell'anno seguente
John Hopkinson, professore di ingegneria elettrotecnica al King's College di
Londra, brevettò un sistema a tre fili per distribuire la corrente continua,
che offriva la possibilità di ottenere due circuiti a due fili da un singolo
generatore funzionante al doppio della tensione richiesta da ciascun circuito,
rendendo così possibile un risparmio di rame fino al 50%. Altri tentativi,
effettuati nel diciannovesimo secolo, per ottenere ulteriori economie con
sistemi a cinque fili si rivelarono infruttuosi per ragioni tecniche.
Thomas K. Derry e Trevor I. Williams
“Storia della Tecnologia”
Editore Boringhieri S.p.A.
Torino, 1977
Volume secondo, pagg. 704 e segg.
**************************
Industria elettrica: telegrafia e telefonia.
La trasmissione di segnali ottici da una stazione ad un’altra fu effettuata già nei tempi antichi; i segnali con fumate dei pellirossa ricordano che mezzi molto primitivi sono sufficienti per messaggi semplici. Eschilo, nell'Agamemnon, descrive l'invio di segnali per mezzo di torce: la narrazione è indubbiamente basata sull'esperienza personale fattane coll'esercito ateniese nelle guerre persiane. Anche lo storico greco Polibio descrive comunicazioni per mezzo di segnali col fuoco, e diciassette secoli dopo la sua morte i segnali col fuoco che diedero, nel 1588, l'allarme all'Inghilterra per l'avvicinarsi dell'Armada spagnuola sono un esempio d'un metodo usato in molti paesi per dare un tempestivo segnale di pericolo. Lo speciale problema delle comunicazioni tra navi, o tra nave e stazioni di terra, indusse il futuro Giacomo II, mentre era Lord Ammiraglio in capo, a progettare una serie di bandierine navali di segnalazione, che furono rese sistematiche da Kempenfeldt e dal conte Howe al tempo delle grandi guerre marittime contro la Francia negli ultimi decenni del diciottesimo secolo. Le possibilità di tali sistemi visivi furono molto migliorate con l'invenzione del telescopio, ma la telegrafia, nel senso moderno del termine, è in gran parte un prodotto della Rivoluzione francese, quando le forze francesi combattevano su molti fronti e rapide comunicazioni tra le armate erano una questione di primaria importanza. Fra gli ardenti sostenitori della Rivoluzione era Claude Chappe, che, nel 1790, affrontò il problema della telegrafia a lunga distanza. Sebbene egli indagasse le possibilità del telegrafo elettrico, la sua proposta conclusiva fu una serie di stazioni fornite di bracci semaforici e di telescopi, normalmente distanti fra loro non più di 16 chilometri, per mezzo delle quali i messaggi potevano essere trasmessi secondo un cifrario predisposto. Nel 1793 a Chappe venne assegnato il titolo di Ingénieur-Télégraphe, con istruzioni d'impiantare una linea di stazioni fra Parigi e Lilla: il primo messaggio, che annunciava la riconquista di Le Quesnoy, fu trasmesso nell'agosto del 1794. Prima della fine del secolo Parigi era collegata, per mezzo di impianti simili, con Brest e Strasburgo, e quando il sistema Chappe fu abbandonato verso la metà del diciannovesimo secolo, la rete era di circa 5000 chilometri. Informazioni pervenute dalla Francia indussero l'Ammiragliato inglese a impiantare un sistema simile di stazioni fra Londra e Deal, e più tardi fra Londra e Portsmouth: la differenza principale consisteva nel fatto che vennero usati schermi mobili in luogo di bracci semaforici; da ciò deriva il nome di "colline del telegrafo" nelle carte dell’Ordnance Survey, allora proprio agli inizi. Una temporanea tregua dei combattimenti, nel 1802, causò una diminuzione d'interesse verso questi dispositivi, ma una linea di stazioni fra Londra e Plymouth fu ultimata nel 1806. Quasi nello stesso tempo, un sistema di semafori fu installato negli Stati Uniti per collegare un'isola al largo della costa del Massachusetts con Boston, per trasmettere informazioni concernenti la navigazione. Siccome il principale scopo del telegrafo era la trasmissione di urgenti informazioni militari non fa meraviglia che alla conclusione delle ostilità con la Francia il sistema dell'Ammiragliato cadesse in disuso, benché la linea da Londra a Portsmouth non venisse definitivamente chiusa se non alla metà del secolo. Le comunicazioni fra nave e nave, tuttavia, non furono trascurate dall'Ammiragliato: per esempio, variando le combinazioni di due croci rotanti, potevano essere rapidamente trasmessi 400 messaggi in cifra. Funzionando in condizioni favorevoli, tali sistemi ottici potevano trasmettere messaggi con sorprendente rapidità: si dice che un messaggio breve potesse essere trasmesso da Londra a Deal entro un minuto. C'erano tuttavia ovvi svantaggi. Il sistema era estremamente dispendioso quanto a mano d'opera: nel suo massimo sviluppo, il sistema francese comprendeva più di 500 stazioni separate. Era inoltre gravemente soggetto alle condizioni climatiche, poiché la scarsa visibilità in un tratto qualsiasi del percorso poteva seriamente, se non completamente, interrompere lo scambio di segnali. Il sistema a semaforo era giustificato quando rapide comunicazioni erano vitali e il costo privo d'importanza, ma era chiaramente di limitato valore per ordinari scopi civili. L'avvenire apparteneva al telegrafo elettrico, ma il necessario incentivo per il suo sviluppo venne dato fra il 1830 e il 1840 dall'espansione della rete ferroviaria in Inghilterra. Lo sviluppo del telegrafo è particolarmente collegato ai nomi di William Cooke e Charles Wheatstone, ma già molto prima di loro varie ingegnose forme di apparecchi telegrafici elettrici erano state ideate e realizzate. Benché la maggior parte di esse si discosti molto dalla linea principale di sviluppo, possono essere brevemente menzionate. Il primo, e sorprendentemente dettagliato, riferimento a un telegrafo elettrico si ebbe in una proposta di un corrispondente anonimo pubblicata addirittura nel 1753 sulla rivista “Scots Magazine”. Quest'apparecchio richiedeva ventisei fili separati, corrispondenti alle singole lettere dell'alfabeto, da stendersi fra le stazioni trasmittente e ricevente, e le parole del messaggio erano trasmesse lettera per lettera. Poiché ciascun filo era collegato con una macchina che generava elettricità statica, si poteva far muovere una pallina di midollo di sughero in corrispondenza nella stazione ricevente. Le Sage attuò uno schema simile nel decennio tra il 1770 e il 1780. Alcuni anni dopo, a Parigi, M. Lomond presentò un telegrafo simile a quello di Le Sage ma col notevole perfezionamento di un solo conduttore invece di ventisei; le lettere del messaggio erano distinte per mezzo di un codice. Nel 1795, in Spagna, Francisco Salva adoperò un dispositivo a molti fili e le sue idee attrassero l'attenzione del Re. In successivi esperimenti egli ritornò a un dispositivo a filo unico e si afferma, anche se non è provato con sicurezza, che una linea sperimentale fosse impiantata fra Madrid e Aranjuez, la residenza primaverile della famiglia reale. Un altro telegrafo elettrostatico fu escogitato da Francis Ronalds a Londra, e il suo funzionamento attraverso 13 chilometri di filo fu presentato nel 1816; l'Ammiragliato, peraltro, lo informò che allora non aveva alcun interesse in qualsiasi genere di telegrafo.
L'invenzione della pila di Volta, che forniva una sorgente di elettricità di gran lunga più conveniente, avvicinò la telegrafia elettrica alla sua realizzazione pratica. Tra i pionieri dell'uso di essa c'è l'inventore tedesco S.T. von Soemmering, il cui apparecchio era basato sui principi di quello di Salvá. Nel 1810 egli presentò il suo telegrafo al barone Schilling, addetto all'ambasciata russa a Monaco di Baviera, il quale fu molto colpito dalle sue possibilità, tanto che per molti anni dedicò parecchio tempo all'ulteriore sviluppo di esso. La batteria elettrica forniva un conveniente mezzo per trasmettere un forte segnale a volontà, ma i mezzi per riceverlo erano ancora talmente primitivi (Salvá aveva perfino proposto di utilizzare scosse sentite dall'operatore) che i messaggi potevano essere trasmessi solo molto lentamente. Quest'ostacolo fu superato quando fu stabilita la relazione fra magnetismo ed elettricità. La scoperta che una corrente elettrica passando attraverso una spira potesse causare il movimento di una calamita sospesa fu un avvenimento di grande importanza per la telegrafia, e subito attrasse l'attenzione tanto di von Soemmering quanto di Schilling. Dal 1822 Schilling fece esperimenti con diversi rivelatori elettromagnetici e ideò un alfabeto per il funzionamento con un solo ago, simile a quello più tardi inventato da Samuel Morse. Nel 1836 uno dei suoi strumenti fu visto da Cooke a Heidelberg e da ciò scaturì il primo sistema di telegrafia elettrica applicato su larga scala.
Al suo ritorno in Inghilterra Cooke fece vari esperimenti con un telegrafo elettromagnetico, e gli fu ordinato di installarne uno sulla ferrovia Liverpool-Manchester. Incontrando difficoltà tecniche, consultò Wheatstone, allora professore di filosofia naturale (fisica) al King's College di Londra, che stava anch'egli facendo esperimenti con un tipo simile di telegrafo elettrico. Costatando l'analogia dei loro interessi, i due crearono una società, sfortunatamente turbata da continue liti sul rispettivo contributo nello sviluppo della loro invenzione.
I soci ottennero il loro primo brevetto nel giugno del 1837, e sempre nello stesso anno presentarono un telegrafo a cinque aghi ai direttori della ferrovia Londra-Birmingham. Questa dimostrazione non produsse risultati immediati, poiché i direttori non erano pienamente convinti del valore dell'invenzione. 1 direttori della ferrovia Great Western furono più acuti, e nel 1838 Paddington e West Drayton vennero collegate tra loro; quattro anni più tardi il telegrafo fu prolungato fino a Slough. Questa linea telegrafica e le sue possibilità ebbero enorme pubblicità nel 1845, quando un individuo sospettato di assassinio fu visto salire a Slough su un treno diretto a Londra: la notizia fu telegrafata a Paddington, ed egli fu arrestato all'arrivo e poi in seguito impiccato. I ricevitori di quest'impianto erano di un tipo a due aghi e richiedevano che il dispaccio fosse trasmesso secondo un codice. Sebbene Wheatstone fosse sempre favorevole a ricevitori che segnassero direttamente la lettera che veniva trasmessa, gradualmente divenne chiaro che un codice era di gran lunga il sistema più conveniente, e questo col tempo divenne di uso generale. Dobbiamo all'inventore americano Morse l'alfabeto ora universalmente usato, da lui sperimentato per proprio conto fin dal 1832. 1 suoi primi apparecchi erano piuttosto rozzi, ma dopo una presentazione al pubblico nel 1837 vennero riveduti, coll'aiuto di Alfred Vail, proprietario d'una ferriera. Gli ultimi anni del decennio 1840-50 furono un periodo di estensione del servizio telegrafico, dovuta in Inghilterra al successo dell'installazione tra Paddington e Slough, e negli Stati Uniti alla fortuna che Morse ebbe di completare la prima linea collegante Washington con Baltimora il giorno prima che la Convenzione democratica si riunisse in quest'ultima città per scegliere il proprio candidato alla presidenza. Anche nel continente europeo l'importanza e la convenienza del telegrafo elettrico furono ampiamente riconosciute. Tanto grandi furono le ordinazioni per Cooke e Wheatstone che nel 1846 essi costituirono l'Electric Telegraph Company, che nel giro di sei anni installò in Inghilterra impianti per circa 6500 chilometri. Negli Stati Uniti, quattro anni dopo l'iniziale affermazione di Morse, nel 1844, la Florida era l'unico Stato a est del Mississipi in cui non era ancora giunto il telegrafo. L'intensa concorrenza fra società americane rivali si concluse con la costituzione della Western Union Company nel 1856. In Inghilterra una legge del 1868 autorizzò il Ministro delle Poste ad acquistare, gestire e mantenere telegrafi elettrici. Reti telegrafiche erano andate sviluppandosi anche nel continente europeo e non fa meraviglia che, quando Londra fu collegata con Dover nel 1846, Wheatstone proponesse alla Francia un cavo sottomarino per collegare Londra con la rete europea: dopo un tentativo non riuscito nel 1847 e un altro nel 1850, questo progetto fu finalmente attuato nel 1851. Tra i risultati positivi si ebbe che i prezzi d'apertura e di chiusura dei titoli a Parigi erano conosciuti prima della chiusura delle contrattazioni alla borsa valori di Londra. Entro sei anni fu tentato un programma ancora più ambizioso: il collegamento dell'Inghilterra con gli Stati Uniti. La storia del cavo transatlantico non può essere narrata qui in dettaglio, ma costituisce un notevole primato nel superamento di difficoltà pratiche e tecniche. Nel primo tentativo, nell'estate del 1857, il cavo si spezzò e andò perduto dopo che ne erano stati posati circa 500 chilometri. Dopo un secondo insuccesso, i due continenti furono collegati nell'agosto del 1858: ma il cavo si guastò e dopo qualche settimana diventò addirittura inservibile. Un cavo di nuova progettazione, il primo a essere posato dalla Great Eastern, andò perduto in mezzo all'Atlantico a una profondità di 3650 metri, ma in seguito fu ricuperato. Infine soltanto nel 1866 fu conseguito il successo e un collegamento telegrafico permanente e soddisfacente fu istituito fra il Vecchio e il Nuovo Mondo.
Già nel 1862 la rete telegrafica mondiale copriva approssimativamente 240000 chilometri, di Cui 24000 in Inghilterra, 129000 sul continente europeo e 77000 in America. Gli uffici telegrafici resero possibile la trasmissione assai rapida di messaggi. Nel 1872, quando il sindaco di Adelaide scambiò messaggi col sindaco di Londra, quasi tutte le principali città del mondo erano collegate.
Il telegrafo era stato ideato per trasmettere messaggi, generalmente in codice, che dovevano essere scritti a mano alla stazione ricevente. Nel 1845 fu inventato un metodo per stampare i messaggi; sviluppato negli Stati Uniti, divenne noto come "telegrafo stampante di House”. Wheatstone brevettò un telegrafo stampante nel 1860. La trasmissione della conversazione, tuttavia, presentò problemi alquanto differenti. Sebbene un telefono elettrico fosse già stato presentato in Germania nel 1861, il primo apparecchio pratico che permettesse lo sfruttamento commerciale fu quello di Alexander Graham Bell, la cui invenzione era fino a un certo punto ispirata dalle ricerche sulla riproduzione del suono fatte dal fisico tedesco Herman Hehnholz. Nel 1876 Bell brevettò la sua invenzione, incorporando un microfono elettromagnetico, e l'anno seguente la presentò alla British Association. La prima società telefonica fu fondata in Inghilterra nel 1878. Dapprima ideata come mezzo di comunicazione orale fra due punti, la centrale telefonica, che fu installata in Inghilterra per la prima volta nel 1879, rese possibile la conversazione tra due persone qualsiasi di un gran numero di utenti locali. Presto seguirono le linee interurbane.
Nel frattempo stava sviluppandosi un terzo e anche più rivoluzionario metodo di comunicazione per mezzo dell'elettricità. Nella seconda metà del diciannovesimo secolo le scoperte sperimentali di Faraday nel campo dell'elettromagnetismo vennero tradotte in termini matematici da Clerk Maxwell, la cui teoria, nella sua forma definitiva, fu pubblicata nel 1873 nel suo classico Treatise on E1ectricity and Magnetism. Maxwell dimostrò che la propagazione dei disturbi elettrici rassomiglia a quella della luce, e asserí l'identità dei due fenomeni, concludendo: “Non possiamo fare a meno di affermare che la luce consiste in oscillazioni trasversali del medesimo mezzo che è la causa dei fenomeni elettrici e magnetici.” Le vedute di Maxwell erano talmente originali che molti dei suoi contemporanei ebbero difficoltà ad accettarle. Il riconoscimento della loro validità fu in gran parte dovuto al fisico tedesco Heinrich Hertz, il quale scoprì le onde elettriche la cui esistenza era stata dedotta da Maxwell. come conseguenza inevitabile della sua teoria. In seguito alla sua nomina a professore di fisica a Karlsruhe nel 1885, Hertz rivolse la sua attenzione a verificare la teoria di Maxwell mediante esperimenti. Ben presto dimostrò che il passaggio di una corrente in un circuito elettrico poteva riprovocare il passaggio di una corrente corrispondente in un circuito similmente "accordato", ma non direttamente collegato col primo. Le onde emesse dal trasmettitore potevano essere rivelate dall'apparizione d'una scintilla in una piccola apertura nel circuito ricevente. Hertz dimostrò la natura simile delle onde elettriche e di quelle della luce, la differenza essenziale essendo rappresentata dalla lunghezza d'onda; nei suoi originali esperimenti furono impiegate onde di circa 24 centimetri di lunghezza. Hertz non si occupò delle possibilità pratiche della sua invenzione: fu solo nel 1895 che Ernest (più tardi Lord) Rutherford trasmise a Cambridge messaggi su una distanza di 1200 metri, e fu solo proprio alla fine del secolo che gli esperimenti di Guglielmo Marconi diedero al telegrafo senza fili la possibilità di attuazione pratica. Marconi fece uso di onde di 300-3000 metri di lunghezza d'onda; e solo molto più tardi onde relativamente corte, come quelle usate da Hertz nei suoi esperimenti di laboratorio, furono impiegate per comunicazioni a grandi distanze. L'impresa più grandiosa di Marconi, la trasmissione senza fili di un segnale attraverso l'Atlantico, avvenne proprio dopo la fine del periodo di cui noi qui ci siamo occupati, avendo avuto luogo il 12 dicembre 1901.
Thomas K. Derry e Trevor I. Williams
“Storia della Tecnologia”
Editore Boringhieri S.p.A.
Torino, 1977
Volume secondo, pagg. 704 e segg.
**************************
Industria elettrica: l'illuminazione.
I principi fondamentali su cui si basa l’illuminazione elettrica erano già noti al principio del diciannovesimo secolo. Humphry Davy, fin dal 1802, aveva notato la luce brillante che veniva emessa quando una scintilla elettrica scoccava fra due elettrodi di carbone. Si sapeva pure che il passaggio di elettricità attraverso un conduttore ne causava il riscaldamento: questo è il principio della lampada a filamento incandescente, in cui la temperatura di un conduttore diviene talmente elevata che esso diventa incandescente ed emette luce. Ma fu solo nella seconda metà del secolo che queste due scoperte furono impiegate per scopi pratici. Poiché la lampada ad arco è la prima forma d'illuminazione elettrica, dovremo prima soffermarci sulla sua storia, benché abbia avuto senz'altro molta più importanza pratica la lampada elettrica a filamento. Per ragioni tecniche la lampada ad arco è adatta solo per la realizzazione di grandi impianti, e una delle sue prime applicazioni furono i fari. L'inizio di quest'impiego è dovuto al lavoro di un pioniere francese, F. Nollet, che fece la proposta di usare la luce Drummond nei fari. La luce Drummond, meglio conosciuta nella sua applicazione in teatri come “luce della ribalta”, era ottenuta rendendo incandescente un blocco di calce riscaldandolo intensamente sulla fiamma ossidrica. Fu inventata nel 1826 da un ufficiale del Genio militare inglese, Thomas Drummond, il quale passò dal suo lavoro di rilevamento a un'importante posizione nell'amministrazione irlandese: i segnali luminosi erano percepiti a una distanza di oltre 160 chilometri. Nollet propose di ottenere l'esatta miscela di ossigeno e di idrogeno mediante la decom- posizione elettrolitica dell'acqua.
Nollet morí nel 1853 senza aver potuto raggiungere il suo scopo, e i suoi sostenitori finanziari cercarono Aora i consigli dell'ingegnere inglese Frederick Holmes. Dopo alcuni anni di esperimenti il progetto fu abbandonato, ma Holmes che se n'era interessato fu portato verso un tipo più pratico e diretto di fari per illuminazione. Invece di usare la corrente elettrica per decomporre l'acqua, egli suggerí che si dovesse usarla per un arco, e nel 1857 ne fece una dimostrazione ai confratelli del Trinity House a Londra. Il suo generatore, di modello costoso ma molto efficiente, di cui era stato pioniere l'ingegnere francese barone A. de Meritens, era azionato da una macchina a vapore e produceva circa 1,5 chilowatt. La dimostrazione ebbe tanto successo che furono subito richieste prove in grande scala da effettuarsi sul faro del promontorio di South Foreland. L'impianto fu messo in funzione con notevole successo nel dicembre 1858, e quattro anni più tardi anche il faro di Dungeness fu dotato di lampade ad arco. Le lampade ad arco usate a South Foreland erano il perfezionamento, dovuto a Duboscq, del tipo ideato da W. E. Staite nel 1846.
Tra i problemi tecnici che Staite aveva dovuto affrontare c'era quello di preparare del carbone di sufficiente purezza e durezza per gli elettrodi. Un altro problema, di tutte le lampade ad arco a carbone, è che gli elettrodi si consumano, sí che lo spazio fra essi è variabile e cambia quindi l'intensità della luce. Dapprima Staite cercò di ovviare a questo con un meccanismo a orologeria, ma ben presto lo cambiò con uno azionato dalla caduta di un peso e regolato, mediante la dila- tazione termica di un'asta di rame, dal calore dell'arco, che aumenta coll'aumentare della lunghezza della scintilla. Più tardi, in collaborazione con W. Petrie, Staite apportò altri perfezionamenti, che destarono però poco interesse perché le batterie erano l'unica sorgente pratica di elettricità allora a dispo- sizione in Inghilterra. Soltando quando la dinamo fu ulteriormente perfezionata si poté ottenere una sor- gente soddisfacente di energia per lampade ad arco. Un certo numero di grandi impianti furono terminati tanto in Inghilterra quanto sul continente europeo entro pochi anni dall'apparizione della dinamo ad anello di Gramme nel 1871.
Nel 1876 una lampada ad arco di modello nuovo fu introdotta da Paul Jablochkoff, un ingegnere addetto al telegrafo nell'esercito russo che si era stabilito a Parigi. In questa lampada, gli elettrodi di carbone erano verticali e paralleli, invece che con un'estremità opposta all'altra come negli altri tipi, e l'arco era scoccato tra le punte delle aste. Non era provvista di alcuna regolazione meccanica, poiché l'uso della corrente alternata faceva sí che gli elettrodi si consumassero con la stessa velocità. Nel 1877 ottanta "candele" Jablochkoff furono installate in un grande negozio di Parigi; nel medesimo anno il West India Dock a Londra fu illuminato in modo analogo, seguito dal mer- cato di Billingsgate, dal Viadotto Holborn e da parte della strada sulla riva sinistra del Tamigi. Il rendimento delle lampade fu ancora migliorato coll'uso di elettrodi di carbone ricoperti di rame. Ma nel frattempo la lampada a filamento incandescente, che in seguito esamineremo, era stata talmente sviluppata che già nel primo decennio dopo il 1880 se ne vendevano centinaia di migliaia di esemplari, e la lampada ad arco, fuorché per usi speciali, risultava sorpassata.
Le possibilità delle lampade a filamento incandescente avevano attirato l'attenzione degli inventori fin dal decennio 1840-50; che passassero trent'anni prima che tali lampade venissero usate fu dovuto alle difficoltà tecniche della loro costruzione. Due ostacoli principali dovevano essere superati. In primo luogo, il filamento doveva essere fabbricato con un conduttore elettrico che potesse essere riscaldato fino all'incandescenza senza fondersi, e questo naturalmente limitava moltissimo la scelta. In secondo luogo, poiché quasi tutte le sostanze quando sono riscaldate si combinano coll'ossigeno, il filamento doveva essere racchiuso in un ambiente a vuoto spinto, e i mezzi occorrenti per ottenere questo non erano ancora a disposizione dei primi inventori. Staite illustrò la sua lampada a filamento incandescente in Inghilterra già nel 1847, ma il filamento, sebbene fosse di una lega composta di platino e iridio ad alto punto di fusione, aveva una durata molto breve a causa del residuo di aria che rimaneva nell'ampolla. Altri inventori del tempo si trovarono di fronte allo stesso problema e non furono in grado di risolverlo. Soltanto nel 1865, quando fu inventata la pompa a mercurio, fu possibile ottenere un vuoto soddisfacente. Questo risultato incoraggiò Joseph Swan a riprendere gli esperimenti sui filamenti di carbone che egli aveva iniziato verso il 1847, quando era stato presente alla dimostrazione di Staite ed era venuto a conoscenza di un brevetto americano presentato da J.W. Starr nel 1845 concernente l'uso di filamenti di carbone. La prima lanmpada a filamento di carbone di Swan fu fatta nel 1848, ma la vita di essa fu troppo breve per poter essere utile: il primo modello soddisfacente non fu realizzato prima del 1878; il filamento era ottenuto carbonizzando un filo di cotone mercerizzato. Nel frattempo, dopo precedenti esperimenti col platino, Edison in Arnerica aveva studiato alcune lampade che contenevano filamenti ottenuti carbonizzando frammenti di bambú, materiale che Edison scelse perché riteneva che desse un filamento particolarmente forte. Qualunque tipo di filamento fosse usato (quello di Edison, in cui la struttura originaria del materiale carbonioso era mantenuta appositamente, oppure quello di Swan, in cui si cercava una densa struttura omogenea), era necessario porlo a contatto con l'alimentazione elettrica esterna attraverso un recipiente di vetro privo d'aria. A questo scopo dovevano essere fissati fili di platino dentro il vetro, e la scelta di questa costosa materia era imposta dal fatto che era l'unico metallo allora a disposizione ìa cui dilatazione col riscaldamento sia uguale a quella del vetro: se la dilatazione tennica fosse diversa, sarebbe inevitabile qualche incrinatura del vetro con penetrazione di aria all'interno. Swan da principio non fece passi per brevettare le sue invenzioni; Edison, al contrario, come con tutte le sue invenzioni, si avvalse il più possibile delle leggi a tutela dei brevetti. Ne risultò che Swan, nonostante la sua priorità, trovò la strada sbarrata da Edison. Tuttavia l'equilibrio fu ristabilito quando, reso più accorto dai fatti, Swan brevettò nel 188o un procedimento per togliere le ultime tracce di aria dai filamenti col “farli sfavillare” prima che il globo fosse sigillato: ciò dava una più lunga durata e diminuiva l'annerimento interno del globo dovuto al carbonio che vi si depositava e che aveva ridotto l’efficienza delle prime lampade a filamento di carbone. Nel 1883 Swan brevettò un metodo perfezionato per la preparazione dei filamenti. In esso, veniva disciolta cellulosa in modo da formare un liquido sciropposo, che era poi trafilato facendolo passare attraverso un sottile ugello in un bagno coagulante. Il filo che ne risultava era quindi avvolto su forme, che gli davano una curva caratteristica a nodo, e poi carbonizzato mediante cottura in forno. Dopo alcune scaramucce legali, Edison e Swan riconobbero che i loro interessi erano meglio tutelati con la cooperazione che non con la concorrenza; perciò nel 1883 fu fondata la Edison and Swan United Electric Light Company Limited. Fino a quando i brevetti originari per le lampade a carbone scaddero, nel 1893, questa società ebbe il monopolio della fabbricazione in Inghilterra, e gli eventuali concorrenti furono spinti a trasferirsi sul continente europeo. Fra quelli che presero questa via ci fu C. J. Robertson, che si era associato con un altro inventore, St George Lane-Fox, che aveva già fatto esperimenti sul carbone e sui filamenti metallici. Robertson allestí e diresse diverse fabbriche di lampade elettriche nel continente europeo.
Considerando il suo successivo immenso successo, sorprende il fatto che le possibilità della lampada a filamento incandescente non furono all'inizio previste generalmente: in Germania, per esempio, Werner von Siemens, per quanto dovesse essere perspicacemente in cerca di nuovi impieghi per i suoi generatori elettrici, rifiutò nel 1881 un invito a prendere la licenza per l'Europa dei brevetti di Edison. Il nuovo tipo di luce elettrica ebbe dapprima diffusione lenta, ma poi più rapida, quando l'uso di ma in un certo numero di edifici molto noti ne dimostrò i pregi. Dal 1881 la Camera dei Comuni a Londra fu illuminata con lampade a incandescenza e nello stesso anno un complesso impianto di più di mille lampade fu allestito al Savoy Theatre. La nuova moda fu seguita l'anno seguente dal British Muscum e dalla Royal Academy. Presto fu riconosciuta la sua convenienza per i trasporti e sia una nave transoccanica sia un treno furono dotati delle nuove lampade nel 1881. Ma fu solo cinque anni dopo che funzionò nel Regno Unito il primo impianto d'illuminazione per più case, a Kensington, Londra.
Il successo della lampada a filamento di carbone non distolse gli inventori dal cercare di realizzare un filamento metallico soddisfacente, e alla fine del diciannovesimo secolo essi erano giunti al punto da far intravedere la fine della lampada a carbone. Uno dei suoi ultimi capisaldi fu l'uso sulle navi da guerra, dove la sua resistenza ai contraccolpi del tiro dei cannoni ne prolungò la richiesta. Per le ragioni già citate, la scelta dei metalli era estremamente limitata, e anche quando le proprietà fisiche erano riconosciute idonee, ridurre il metallo in un filo sufficientemente sottile e uniforme poteva implicare formidabili difficoltà. Nel 1898 von Welshbach, pioniere della reticella incandescente del lume a gas, introdusse filamenti di osmio (punto di fusione a 2700 °C) e subito dopo la fine del secolo fu usato il tantalio (punto di fusione 2996 °C). Ma l'avvenire spettava al tungsteno, che ha un punto di fusione molto più alto (3410 °C): benché poco duttile, di- venne di uso generale per i filamenti di lampade verso il 1911.
Nel 1900 la supremazia della lampada a incandescenza su tutte le altre per uso domestico era pienamente riconosciuta: era conveniente, pulita, sicura e di buon funzionamento. L'adozione di essa tuttavia era sottoposta al ritmo dello sviluppo dei servizi pubblici di fornitura elettrica. La luce elettrica era già un aspetto ben accetto della vita urbana nel 1900, per quanto l'illuminazione a gas fosse ancora un concorrente da non sottovalutare, ma la sua penetrazione nelle campagne fu naturalmente più lenta.
Col crescente uso di lampade elettriche, prodotte a milioni già alla fine del secolo, fu sentita la necessità di unificare i portalampade. Dapprima il collegamento con l'alimentazione era fatto direttamente agli estremi sporgenti dei fili di platino che reggevano il filamento di carbone. Tuttavia dal 1880 in poi si cominciò a fare una netta distinzione fra la pratica inglese da un lato e quella americana ed europea dall'altro. L'Inghilterra adottò il portalampade a baionetta ancora oggi comune, mentre Edison fin dall'inizio usò il portalampade a vite. Nel 1900 era già d'impiego corrente la valvola, fatta di filo di stagno a basso punto di fusione, che fonde e interrompe il circuito se la corrente supera un valore massimo prefissato.
“Storia della Tecnologia”
Editore Boringhieri S.p.A.
Torino, 1977
Volume secondo, pagg. 704 e segg.
**************************
L'industria elettrica: il motore.
Come abbiamo visto, i principi della dinamo e del motore elettrico sono gli stessi: se un potenziale elettrico è fornito a una dinamo a corrente continua dei tipi che abbiamo considerato, l'indotto ruoterà. Nel 1873 Gramme fece a Vienna una dimostrazione di due dei suoi generatori, disposti in modo che o l'uno o l'altro servisse da dinamo per fornire l'elettricità e per azionare l'altro come motore. Tuttavia, per necessità di rendimento i progetti delle dinamo e dei motori devono differire. In ogni caso, le macchine di Gramme erano adatte solo come motori con corrente continua, mentre, come abbiamo visto, verso la fine del secolo la corrente alternata guadagnava gradatamente terreno per la produzione di elettricità su larga scala. Il primo motore a corrente alternata fu inventato nel 1888 da Nikola Tesla, e fu fabbricato in America da Westinghouse.
Tuttavia, durante il periodo di cui ci occupiamo, per la trazione tramviaria e ferroviaria predominava il motore a corrente continua: anche quando l'alimentazione era in corrente alternata, avveniva comunemente una conversione preliminare a corrente continua. Perciò sulla Central London Railway ogni locomotiva era munita di motori a corrente continua di 120 cavalli-vapore. La prima alimentazione distribuiva Corrente alternata a 5000 volt, che era trasformnata a 305 volt in tre sottostazioni; questa a sua volta era convertita in corrente continua di 500 volt, distribuita alle locomotive per mezzo di una terza rotaia, di acciaio speciale ad alta conducibilità, sorretta da isolatori di porcellana. Alla fine del secolo, ciò era considerato uno dei migliori esempi di applicazione dell'elettricità alla trazione avuti fino allora.
Un importantissimo aspetto del motore elettrico è la sua convenienza: può essere azionato dovunque possa essere portato un cavo dalla centrale elettrica. Verso la fine del diciannovesimo secolo si cominciò a riconoscere l'utilità di esso specialmente nell'industria. Il rumoroso e ingombrante sistema di alberi di trasmissione sistemati in alto, con pulegge e cinghie per ogni macchina da azionare, incominciò a essere sostituito da un sistema di motori elettrici per le varie macchine, che potevano essere da meno di un cavallo-vapore ciascuno. Dapprima, la tendenza fu di montare il motore elettrico a breve distanza dalla macchina che doveva azionare, e la forza motrice veniva trasmessa con una cinghia, ma già nel 1900 alcuni progettisti, specialmente di macchine utensili, avevano cominciato a incorporare i motori elettrici come parte integrante della macchina. Qualche macchina incorporava addirittura vari motori elettrici, e ciascuno azionava una parte separata del meccanismo. Guardando in retrospettiva, sembra sorprendente come l’uso dell’energia elettrica, che apriva così grandi possibilità per l’elettrochimica come pure per usi industriali e per la trazione, si sia sviluppata con tanta lentezza fino al 1900 in tutte le sfere eccetto che in quella dell’illuminazione. L’industria elettrica era più importante in germania, dove Siemens e Halske le dettero un rapido inizio, che in Inghilterra e negli Stati Uniti. In America nel 1899 erano impiegati in quest’industria solo 42.000 dipendenti che dovevano aumentare nel 1929 a quasi 330.000. La ragione sembra che dipendesse in gran parte da una doppia difficoltà. Da una parte, l’elettricità non venne utilizzata nell’industria con facilità eccetto che nei nuovi rami tecnologici, perché negli stadi iniziali di sviluppo non poteva gareggiare con i bassi costi della macchina a vapore già installata quale principale forza motrice. Dall’altra, l’uso dell’elettricità per illuminazione aveva la caratteristica di un breve periodo di punta tanto nella giornata quanto nell’anno: la richiesta media non era più del 10% della capacità produttiva, il che significava che la produzione su larga scala era troppo costosa per spese generali da essere intrapresa prontamente. Dopo il 1900 l'aumento della trazione elettrica, a cui il previdente Werner von Siemens ventun'anni prima aveva additato la strada, e in cui la locomotiva elettrica di nuovo tipo era pari, e sotto certi aspetti anzi superiore, alla locomotiva a vapore per efficienza, era un elemento importante per distribuire più uniformemente il carico durante le ventiquattro ore. [Per quanto concerne la realizzazione pratica e la diffusione industriale del motore elettrico a corrente continua, occorre ricordare il fondamentale contributo apportato alla creazione di tale dispositivo da Antonio Pacinotti, il quale ideò una macchina elettromagnetica che poteva essere utilizzata sia come motore sia come generatore. Uguale importanza ebbe l'opera di Galileo Ferraris, professore di fisica tecnica presso il R. Museo Industriale di Torino, il quale nel 1885 scoprì il campo magnetico rotante generato da un induttore polifase fisso: questo campo produce correnti in un indotto mobile e l'azione elettrodinamica fra campo e corrente dà luogo alla coppia meccanica. G. Ferraris comprese che si poteva applicare tale principio per costruire un motore asincrono e nello stesso anno 1885 realizzò infatti dei prototipi di tali motori.
Thomas K. Derry e Trevor I. Williams
“Storia della Tecnologia”
Editore Boringhieri S.p.A.
Torino, 1977
Volume secondo, pagg. 704 e segg.
**************************