Clicca l'iniziale per trovare la parola cercata
D E F 
G H I J K  
L M N O 
P Q R 
S T U 
V W X Y Z
 
A B C 
 
Acqua 
L’energia cinetica delle masse d’acqua (acquisita cioè dall'energia   potenziale che una massa d'acqua perde con un salto o un percorso in pendenza)   viene utilizzata da tempi immemorabili per scopi energetici: è stata anzi la   prima fonte energetica largamente usata dall'uomo in sostituzione di quella   muscolare e animale. Attualmente lo sfruttamento prevalente   dell'energia cinetica delle acque, siano esse fluenti o in caduta, è relativo   alla produzione di energia elettrica. Sono proprio quelli idraulici i più   grandi impianti esistenti per la produzione di elettricità (centrali   idroelettriche). Nel 1984 sul fiume Paranà, al confine tra Brasile e Paraguay, è   stata inaugurata la centrale di Itaipu, che ha una potenza complessiva di circa   13.000 MW. In Cina sono in via di completamento i lavori per la centrale delle   Tre Gole, sul fiume Yang-Tze, che una volta ultimati renderanno disponibile una   potenza di oltre 17.000 MW. 
  L’elettricità prodotta dalle centrali   idroelettriche non ha alcun tipo di emissione inquinante. L’unico impatto   ambientale - di rilievo solo per le centrali più grandi - è costituito dalle   modificazioni degli ambienti naturali conseguenti alla realizzazione degli   sbarramenti artificiali necessari per un adeguato sfruttamento dell’energia   idraulica. Tra le fonti rinnovabili l’energia idroelettrica è di gran   lunga quella di maggiore importanza. Contribuisce infatti per una quota   rilevante alla domanda mondiale di energia primaria: oltre il 6% su scala mondiale, ma con   valori molto superiori per alcune aree geografiche (a esempio il 27,5% nel caso   dell’America centro-meridionale) o singoli Paesi. Anche in Italia – dove   le attività idroelettriche risalgono ai primi del ‘900 e dove si è sviluppato un   know-how tecnologico avanzato – la produzione di energia idroelettrica  continua a rivestire un ruolo di   primo piano, con un contributo che, pur variando di anno in anno a seconda del   livello delle precipitazioni, corrisponde a circa un sesto dell’intera   produzione elettrica nazionale.  La realizzazione nel corso   del Novecento delle maggiori opere impiantistiche nel settore ha in pratica   esaurito le possibilità di sfruttamento energetico della fonte idrica sul nostro   territorio.     
Acquirente unico    
  Acquirente Unico è la Società per azioni del gruppo Gestore dei Servizi Elettrici – GSE Spa, cui è affidato per legge il ruolo di garante della fornitura di energia elettrica alle famiglie e alle piccole imprese, a prezzi competitivi e in condizioni di continuità, sicurezza ed efficienza del servizio.
Il compito di Acquirente Unico è quello di acquistare energia elettrica alle condizioni più favorevoli sul
mercato e di cederla ai distributori o alle imprese di vendita al dettaglio, per la fornitura ai piccoli consumatori che non acquistano sul mercato libero. Dal 1° luglio 2007, con la completa apertura del mercato elettrico, Acquirente Unico acquista l’energia elettrica per il fabbisogno dei clienti appartenenti al mercato di “maggior tutela”, consumatori domestici e piccole imprese (connesse in bassa tensione, con meno di 50 dipendenti e un fatturato annuo non superiore a 10 milioni di euro) che non hanno scelto un nuovo fornitore nel mercato libero.
Accumulatore elettrico  
Vedi le voci batteria ricaricabile e pila chimica. 
Alghe  
Produrre energia dalle alghe.  
Alleggeritori automatici del carico  
  Relè sensibili al valore della frequenza e della sua derivata che comandano il   distacco di predefiniti blocchi di carico quando la frequenza, a seguito di   disservizi, raggiunge valori non compatibili con l’esercizio del sistema   elettrico. 
Alta Tensione (AT)  
Tensione nominale tra le fasi elettriche  superiore a 35 kV e uguale o inferiore a 150 kV.
Alternatore  
L'alternatore è una macchina elettrica rotante basata sul   fenomeno dell'induzione elettromagnetica, che   trasforma energia   meccanica in energia elettrica sotto forma di corrente   alternata assumendo la funzione di trasduttore. Svolge in pratica l'azione inversa rispetto al motore sincrono e presenta la stessa struttura   di base. Generatore sincrono. La macchina è costituita da una parte cava fissa, chiamata statore, al cui interno ruota una parte cilindrica   calettata sull'albero di rotazione, detta rotore. Sullo statore sono presenti gli avvolgimenti   elettrici su cui vengono indotte le forze elettromotrici che sosterranno la   corrente elettrica prodotta. Il rotore genera il campo magnetico rotante per mezzo di elettromagneti, i quali   sono a loro volta opportunamente alimentati oppure vengono utilizzati dei   magneti permanenti i quali non necessitano di alimentazione. La tipologia   costruttiva varia notevolmente a seconda del tipo di macchina a cui sono   accoppiati. In caso di alternatori siti in centrali idroelettriche dove la   turbina idraulica ruota a frequenze di centinaia di giri al minuto   l'avvolgimento rotorico sporge rispetto all'albero (si parla di macchina ad N   "poli salienti"). La velocità dipende dalle caratteristiche della turbina   idraulica ed è inversamente proporzionale al numero dei poli. Alternatori   accoppiati a turbomacchine (turbine a gas o a vapore) hanno anche l'avvolgimento   rotorico alloggiato in cave, ruotano a frequenze maggiori, comparabili con la   frequenza di rete, e si distinguono ulteriormente per tipologia di   raffreddamento, ad aria, acqua e ad idrogeno. Il rendimento di questi alternatori è molto altro, intorno al 0,97 (97%) per   scendere fino al 0,85 (85%). Generatore asincrono. Nel caso invece si utilizzi come base un motore asincrono, tale motore viene   utilizzato come generatore soltanto quando le potenze in gioco sono contenute e   principalmente quando è collegato a una rete elettrica prevalente (rete   nazionale), che è mantenuta in tensione da alternatori sincroni. Il motore   asincrono per poter funzionare come generatore preleva energia reattiva dalla   rete per magnetizzare il circuito rotorico (essendo i circuiti rotorici a gabbia   di scoiattolo sono privi d'eccitazione), il rotore viene poi avviato tramite una   sorgente energetica esterna (fonte meccanica) portandolo in ipersincronismo (il   campo magnetico del rotore ruota più velocemente del campo magnetico dello   statore), diventando generatore di energia, in questa condizione mentre eroga potenza   attiva verso la rete prevalente, assorbe contemporaneamente potenza   reattiva per tenere alimentato il campo magnetico rotante. Secondo alcuni   studi il rendimento di tali macchine dovrebbe essere attestato intorno a 0,6   (60%), per scendere fino al 0,4 (40%) risultando quindi molto inferiore in   confronto al sistema sincrono, ma col vantaggio d'essere robusto e semplice da   gestire, in quanto in caso d'aumento della velocità dell'albero non si ha la   sovrafrequenza (frequenza più elevata), ma fenomeni meccanici all'albero del   tipo frenatura. Per far funzionare un generatore asincrono in isola (senza rete principale   esterna in collegamento, ma a essere il solo generatore), si utilizzano dei   condensatori per il rifasamento collegati ai morsetti del motore, che consentono   lo scambio dell'energia reattiva (potenza reattiva) necessaria al motore,   permettendone il suo funzionamento come generatore, il difetto di   quest'applicazione è la richiesta obbligata di una sorgente d'energia alternata   per l'avviamento, mentre una volta avviato il sistema va in stabilità e avviene   l'erogazione di potenza attiva.
  Altissima Tensione (AAT)  
  Tensione nominale tra le fasi elettriche  superiore a 150 kV.
  Ambiente.  
 In generale l'ambiente è il contesto, l'intorno in cui e/o con cui un elemento fisico o virtuale si rapporta e si relaziona. Dal latino "ambiens" ciò che sta attorno. Indica l'insieme delle condizioni fisiche (temperatura, pressione, ecc.), chimiche (concentrazioni di sali, ecc.) e biologiche in cui si svolge la vita. L'ambiente è un sistema aperto, capace di autoregolarsi e di mantenere un equilibrio dinamico, all'interno del quale si verificano scambi di energia e di informazioni. Esso include elementi non viventi (acqua, aria, minerali, energia) o "abiotici" ed elementi viventi o "biotici" tra i quali si distinguono organismi produttori (vegetali), consumatori (animali) e decompositori (funghi e batteri). Contesto nel quale l'organizzazione opera, comprendente l'aria, l'acqua, il terreno, le risorse naturali, la flora, la fauna, gli esseri umani e le loro interrelazioni. Il contesto si estende dall'interno di una organizzazione al sistema globale (UNI EN ISO 14001:1996).  
  Attestato di certificazione energetica di  un edificio (APE).   
  L'Ape (attestazione di prestazione energetica) contiene la «targa energetica» che sintetizza le caratteristiche energetiche dell'immobile. Per misurarle, il tecnico deve analizzare le caratteristiche termo igrometriche, i consumi, la produzione di acqua calda, il raffrescamento e il riscaldamento degli ambienti, il tipo di impianto, eventuali sistemi di produzione di energia rinnovabile. L'attestato deve contenere anche i dati catastali dell'immobile. Nel caso si debba vendere la propria abitazione o stipulare un nuovo contratto di locazione per tovare un inquilino, i relativi annunci commerciali tramite tutti i mezzi di comunicazione devono riportare l'Indice di prestazione energetica (Ipe) dell'involucro edilizio e globale dell'edificio o dell'unità immobiliare e la classe energetica corrispodente, contenute nell'attestato di prestazione energetica. Poi, durante le trattative di compravendita o di locazione, venditori e locatori devono rendere disponibile al potenziale acquirente o al nuovo conduttore l'attestato di prestazione energetica. In caso di vendita l'attestato dovrà essere consegnato all'acquirente, così come in caso di locazione al conduttore.  Il decreto 63/2013, poi convertito dalla legge 90/2013, ha introdotto l'Ape al posto del precedente Ace (attestato di certificazione energetica) e ha sanzionato di nullità, in caso di mancata allegazione dell'Ape, a far tempo dal 6 giugno 2013, tutti i contratti di compravendita immobiliare (e pure di ogni altro contratto traslativo di immobili a titolo oneroso: permuta, conferimento in società, transazione, rendita, eccetera); i contratti di donazione e ogni altro atto traslativo di immobili a titolo gratuito; i "nuovi" contratti di locazione (vale a dire non i contratti che siano una proroga di precedenti contratti).
Attestato di qualificazione energetica di  un edificio  
Documento predisposto ed asseverato da un  professionista abilitato, non necessariamente estraneo alla proprietà, alla progettazione o alla  realizzazione dell’edificio, attestante la prestazione energetica dell’edificio e comprendente anche l’indicazione  di possibili interventi migliorativi delle prestazioni energetiche. Sul frontespizio è indicato  che il documento non costituisce attestato di certificazione energetica dell’edificio, ed è dichiarato il  ruolo ricoperto dall’estensore con riferimento all’edificio. L’attestato di qualificazione energetica  sostituisce l’attestato di certificazione energetica fino alla data di entrata in vigore delle Linee guida  nazionali per la certificazione energetica degli edifici, di cui all’articolo
6, comma 9, del D.Lgs 192/05.
Attestazione di certificazione energetica, ACE  
  Vedi articolo dettagliato.
  Autoproduttore  
  La persona fisica o giuridica che produce energia elettrica e la utilizza in   misura non inferiore al 70% annuo per uso proprio ovvero per uso delle società   controllate, della società controllante e delle società controllate dalla   medesima controllante, nonché per uso dei soci delle società cooperative di   produzione e distribuzione dell'energia elettrica (vedi art. 4, num. 8, legge 6   dicembre 1962, n. 1643) degli appartenenti ai consorzi o società consortili   costituiti per la produzione di energia elettrica da fonti energetiche   rinnovabili e per gli usi di fornitura autorizzati nei siti industriali   anteriormente alla data di entrata in vigore del DL n.79 del 16.3.99. 
Autorità per l’energia elettrica e il gas  (AEEG)  
Autorità indipendente di regolazione alla  quale è affidata la funzione di garantire la promozione della concorrenza e dell’efficienza del settore  elettrico e del gas, istituita ai sensi della legge 14 novembre 1995, n. 481.
Banda larga.  
 
Nell'ambito della teoria dei segnali questo termine è usato per indicare i metodi che consentono a due o più segnali di condividere la stessa linea trasmissiva.
Nella legislazione italiana ed europea manca una definizione ufficiale di banda larga. Tuttavia la Commissione europea usa il termine Banda larga in un'altra accezione cioè come sinonimo di connessione alla rete Internet più veloce di quella assicurata da un normale modem analogico. Essa è di fatto un concetto tipicamente relativo dei nuovi sistemi di telecomunicazione rispetto ai precedenti oppure assoluto se si paragonano tra loro i più evoluti sistemi di telecomunicazione (es. wireless o cablati).
In questo senso la più tipica banda larga sarebbe quella assicurata dalla connessione tramite fibre ottiche. Pur tuttavia con tale espressione si può intendere anche la banda dei sistemi mobili di telecomunicazioni (es. cellulari e smartphone) di terza generazione (3G) con accesso alla rete Internet rispetto a quelli di seconda generazione (2G) (wireless broadband o banda larga radiomobile), i quali tutti hanno comunque un'ampiezza di banda inferiore rispetto alle reti cablate in fibra ottica specie in un contesto di banda totale condivisa tra molti utenti. In tale accezione l'evoluzione dei sistemi cablati viaggia ora verso la cosiddetta banda ultralarga (ultrabroadband) grazie all'avvento delle tecnologie 4G. Vedi articolo.
Bassa tensione (BT)  
Tensione nominale tra le fasi elettriche  uguale o inferiore a 1kV.
Batteria ricaricabile  
La batteria ricaricabile è una batteria la cui carica può essere   completamente ristabilita mediante l'applicazione di un'adeguata energia elettrica.   Ne esistono di vari tipi, con diverse capacità elettriche, differenti   composizioni chimiche, forma e dimensioni. Sono anche conosciute come pile secondarie, cellule   secondarie o accumulatori (abbr. accu/akku). Tentare di ricaricare batterie   non-ricaricabili (primarie) può provocare un pericoloso surriscaldamento dell'elettrolita fino a provocarne la   fuoriuscita o l'esplosione. Alcuni tipi di batterie ricaricabili sono   suscettibili di danni dovuti ad una scarica completa (Pb, Li-ion)   mentre altre devono essere ciclicamente scaricate onde evitare un rapido degrado   delle prestazioni (effetto memoria in   inglese lazy battery, isteresi).
Batteria litio-ione  
Il tipo di batteria ricaricabile noto come accumulatore litio-ione (a volte abbreviato Li-Ion) è un tipo di batteria ricaricabile comunemente impiegato nell' elettronica di consumo. È attualmente   uno dei tipi più diffusi di batteria per laptop e telefono cellulare, con uno dei migliori   rapporti potenza-peso, nessun effetto memoria ed una   lenta perdita della carica quando non è in uso. Tali batterie possono essere   pericolose se impiegate impropriamente e se vengono danneggiate, e comunque, a   meno che non vengano trattate con cura, si assume che possano avere una vita   utile più corta rispetto ad altri tipi di batteria. Una versione più avanzata   della batteria litio-ione è l'accumulatore litio-polimero.Vantaggi. Le batterie al litio-ione possono essere costruite in una vasta gamma di   forme e dimensioni, in modo da riempire efficientemente gli spazi disponibili   nei dispositivi che le utilizzano. Tali batterie sono anche più leggere delle equivalenti fabbricate con altri   componenti chimici - spesso molto più leggere. Questo perché gli ioni di litio hanno una densità di carica molto   elevata - la più alta di tutti gli ioni che si sviluppano naturalmente. Gli ioni   di Li sono piccoli e mobili, ma stoccabili   più prontamente di quelli di idrogeno. Inoltre una batteria basata sul litio è più   piccola di una con elementi di idrogeno, come le batterie all'idruro   metallico di nichel, e con meno gas volatili. Gli ioni necessitano di meno   intermediari per l'immagazzinaggio, cosicché più peso della batteria è   utilizzabile per la carica, invece che per l'overhead. Le batterie Li-ion non soffrono dell'effetto memoria. Hanno   anche un basso ritmo di auto-scarica approssimativamente del 5% mensile,   paragonato all'oltre 30% mensile e 20% mensile in batterie all'idruro metallico   di nichel e al nichel-cadmio, rispettivamente. In   effetti, le batterie Li-Ion (in particolare le batterie al Li-Ion "stupide") non   hanno processi di auto-scarica nel significato abituale della parola, ma   soffrono di una lenta perdita permanente di capacità. D'altro canto, le pile al Li-Ion "intelligenti" si   auto-scaricano lentamente, a causa del piccolo consumo del circuito di   monitoraggio del voltaggio inserito in esse; questo consumo è la sorgente più   importante di auto-scarica in queste batterie. Svantaggi. L'unico svantaggio della batteria al Li-Ion è che presenta un degrado   progressivo anche se non viene utilizzata (durata di conservazione, in Inglese   "Shelf Life"), a partire dal momento della fabbricazione, indipendentemente dal   numero di cicli di carica/scarica. Questo svantaggio non è molto pubblicizzato. Ad un livello di carica del 100%, una tipica batteria Li-Ion per calcolatore   portatile caricata al 25% e conservata a 25° C perderà irreversibilmente circa   il 20% della sua capacità all'anno. Tuttavia la batteria di un computer   portatile poco ventilato potrebbe venire esposta a temperature più alte,   abbreviandone ulteriormente la durata. Questo tipo di degrado peggiora con   l'aumento della temperatura di conservazione e dello stato di carica. Per questo gli accumulatori Li-Ion non sono adatti ad essere usati come fonte   secondaria di energia: per questa applicazione sono più indicati gli accumulatori al   piombo, o anche le batterie al Ni-MH. Siccome la potenza massima che può essere continuamente prelevata dalla   batteria dipende dalla sua capacità, nei dispositivi che richiedono alta potenza   (relativa alla capacità della batteria espressa in A·h), come computer portatili e videocamere, le   batterie al Li-Ion spesso si guastano bruscamente anziché mostrare una graduale   diminuzione della durata di uso dell'equipaggiamento. Al contrario, i   dispositivi che richiedono bassa potenza, come i telefoni portatili, possono   sfruttare l'intero ciclo di vita della batteria. Una pila al Li-Ion singola non va mai scaricata sotto una certa tensione, per   evitare danni irreversibili. Di conseguenza tutti i sistemi che utilizzano   batterie al Li-Ion sono equipaggiati con un circuito che spegne il sistema   quando la batteria viene scaricata sotto la soglia predefinita.   Dovrebbe dunque essere impossibile scaricare la batteria "profondamente" in un   sistema progettato correttamente durante il normale uso. Questa è anche una   delle ragioni per cui le pile al litio non vengono mai vendute da sole ai   consumatori, ma solo come batterie finite progettate per adattarsi ad un sistema   particolare. Quando il circuito di monitoraggio della tensione è montato all'interno della   batteria (la cosiddetta "batteria intelligente") anziché come equipaggiamento   esterno,  consuma continuamente una piccola corrente dalla batteria anche   quando non è in uso, la batteria non va a maggior ragione immagazzinata per   lunghi periodi completamente scarica, per evitare danni permanenti. Le batterie Li-Ion non sono durature come quelle al nichel metal-idrato o al nichel-cadmio, e possono essere   pericolose se se ne sbaglia l'utilizzo. Di solito sono anche più costose. Specifiche. 
  - Densità specifica di energia: da 150 a 200 W·h/kg (da 540 a 720) kJ/kg) 
- Densità volumetrica di energia: da 250 a 530 W·h/L (da 900 a 1900   J/cm3) 
- Densità specifica di potenza: da 300 a 1500 W/kg (@ 20 secondi) 
  Una reazione chimica tipica della batteria al Li-Ion è come segue:
   
  Le batterie agli ioni di litio hanno una tensione   di circuito aperto nominale di 3.6 V e   una tensione di ricarica tipica di 4.2 V. La procedura di ricarica è a tensione   costante con limite di corrente. Questo significa caricare con corrente costante   finché una tensione di 4.2 V viene raggiunta dalla pila e continua con tensione   costante finché la corrente diventa nulla o quasi. (Tipicamente la carica viene   terminata al 7% della corrente iniziale di carica). Le vecchie batterie agli   ioni di litio non potevano essere caricate velocemente e necessitavano   tipicamente di almeno 2 ore per ricaricarsi completamente. Le pile della   generazione attuale si ricaricano completamente in 45 minuti o meno; alcune   raggiungono il 90% di carica in appena 10 minuti. Il design interno delle pile a ione di litio è come segue. L'anodo è fatto con carbonio, il catodo è un ossido metallico, e l'elettrolita è un sale di litio in solvente organico. Poiché il metallo di litio, che   potrebbe essere prodotto in condizioni irregolari di ricarica, è molto reattivo   e può causare esplosioni, le pile agli ioni di litio solitamente hanno   incorporati circuiti elettronici protettivi e/o fusibili per evitare   l'inversione di polarità, sovraccarichi di tensione e surriscaldamento.
   Batteria nichel cadmio  
   La batteria nota come accumulatore nichel-cadmio (comunemente abbreviata NiCd) è un tipo molto popolare di accumulatore ricaricabile, usato spesso in apparecchi   portatili dell'elettronica di consumo ed in giocattoli, ed impiega i metalli nichel (Ni) e cadmio (Cd) come reagenti chimici. L'abbreviazione NiCad è un marchio registrato della SAFT Corporation e non dovrebbe essere utilizzato per riferirsi genericamente alle   batterie nichel-cadmio. Spesso vengono impiegate come un rimpiazzo delle celle   primarie, come batterie per l'alto carico (heavy duty) oppure per   sostituire le batterie   alcaline, che sono spesso disponibili in molte delle stesse misure delle pile standard. Inoltre, le batterie NiCd hanno un mercato   di nicchia nell'area dei telefoni cordless (senza cordone, come il DECT) e wireless (senza fili), nell'illuminazione   di emergenza, così come in molti tipi di utensile   elettrico di potenza. Le batterie NiCd contengono un elettrodo positivo di idrossido   di nichel, un elettrodo negativo di idrossido di cadmio, un separatore e un elettrolita alcalino. Le batterie NiCd di solito hanno un   contenitore di metallo con una placca sigillante con una valvola di   sicurezza auto-sigillante. Gli elettrodi, isolati da ogni altra cosa tramite   il separatore, sono arrotolati a spirale dentro al contenitore. La reazione   chimica che avviene in una batteria NiCd è:

Questa reazione va da sinistra a destra quando la batteria viene scaricata e   da destra a sinistra quando viene ricaricata. L'elettrolita alcalino (di solito   KOH) non viene consumato in questa reazione. Quando Jungner costruì le prime batterie nickel-cadmio, usò l'ossido di   nickel nel catodo e ferro e cadmio   nell'anodo. Non molto dopo iniziarono ad essere impiegati cadmio puro e   idrossido di nichel. Fino al 1960 circa, la reazione nelle batterie al   nickel-cadmio non era ancora totalmente chiara.C'erano numerosi aspetti da   conoscere a fondo , come ad esempio i prodotti della reazione. There were   several speculations as to the reaction products. Il dibattito fu   definitivamente risolto dalla spettrometria. Un'altra innovazione importante alla base delle pile NiCd fu l'aggiunta di   idrossido di litio all'elettrolita   idrossido di potassio. Si credeva in questo modo di poter rendere le batterie   più resistenti, prolungando quindi la vita media delle batterie. Tuttavia la   batteria al nickel-cadmio nella sua forma moderna è estremamente resistente di   per sé,pertanto questa pratica è stata abbandonata. Il sovraccaricamento fa ormai parte della progettazione stessa delle pile.   Nel caso delle NiCd, ci sono due possibili effetti del sovraccaricamento. Se   l'anodo è sovraccaricato, si produce idrogeno; se il catodo è sovraccaricato, si produce ossigeno. Per questo motivo, l'anodo è sempre   progettato per avere una capacità più alta del catodo, per evitare il rilascio   di idrogeno.Le batterie a nichel-cadmio sono ventilate,con delle valvole che si   aprono oltrepassata una certa temperatura interna. Questo meccanismo complesso,   non necessario nelle batterie alcaline, contribuisce al loro costo più   elevato. Le batterie NiCd contengono cadmio,   che è un metallo pesante tossico e quindi richiede attenzione speciale durante   il suo smaltimento. Negli Stati Uniti infatti, parte del prezzo di una   batteria NiCd serve allo smaltimento della stessa alla fine del suo ciclo di   vita.
  Becquerel  
  Il becquerel (simbolo Bq) è l'unità di misura del Sistema internazionale dell'attività di un radionuclide (spesso chiamata radioattività), ed è definita come l'attività di un radionuclide che ha un decadimento al secondo. Perciò dimensionalmente equivale a s-1. 1Bq equivale ad 1 disintegrazione al secondo.
Equivalenze rispetto alle vecchie unità:
1 Rd = 106 Bq = 1 MBq 
1 Bq = 2,7×10-11 Ci = 27 picocurie (quindi 1 [Ci] = 3,7 1010 [Bq]).
Il becquerel deve il suo nome a Antoine Henri Becquerel, che nel 1903 vinse il premio Nobel insieme a Marie Curie e Pierre Curie per il loro pionieristico lavoro sulla radioattività.
   Big bang  
  Vedi articolo I Vedi articolo II 
   Bilanciamento  
  Il bilanciamento è il   servizio svolto dal GRTN per consentire il mantenimento dell'equilibrio tra   immissioni e prelievi di energia elettrica sulla rete nazionale. La disciplina   del bilanciamento si applica ai clienti finali idonei, i quali sono tenuti a   stipulare, direttamente o mediante un soggetto delegato, un contratto per il   bilanciamento con il Gestore della Rete. 
  Biogas  
  Con il termine biogas si intende una miscela di vari tipi di gas (per la maggior parte metano, dal 50 al 80%) prodotto dalla fermentazione batterica in anaerobiosi (assenza di ossigeno)   dei residui organici provenienti da rifiuti, vegetali in decomposizione, carcasse in putrescenza, liquami   zootecnici o di fognatura. L'intero processo vede la decomposizione del   materiale organico da parte di alcuni tipi di batteri, producendo anidride   carbonica, idrogeno molecolare e metano (metanizzazione dei composti organici). Il biogas si forma spontaneamente negli accumuli di materiale organico. Le discariche di   rifiuti urbani ne sono quindi grandi produttori, visto che normalmente il 30-40%   del rifiuto è appunto materiale organico; tale gas deve essere captato per   evitarne la diffusione nell'ambiente. A titolo di esempio, da una discarica di   circa 1.000.000 di metri cubi che cresce di 60.000 mc ogni anno, si possono   estrarre quasi 5,5 milioni di metri cubi di biogas all'anno (oltre 600 mc ogni   ora). Sono state sviluppate tecnologie ed impianti specifici che, tramite   l'utilizzo di batteri in appositi "fermentatori" chiusi (da non confondere con gassificatori e rigassificatori), sono in   grado di estrarre grandi quantità di biogas dai rifiuti organici urbani e dal letame prodotto dagli allevamenti intensivi, o anche dai   liquami di fognatura. Il gas metano prodotto in questo processo può essere   quindi utilizzato per la combustione in caldaie da riscaldamento o nei motori   a scoppio, producenndo calore e/o elettricità. Esistono varie tipologie di impianti di produzione di biogas indirizzati a   trattare matrici organiche differenti, liquide o solide. Caratteristiche   principali di un impianto sono il sistema di miscelazione matrici all'interno   del fermentatore/digestore, il caricatore di matrici solide così come il sistema   di filtrazione del biogas prodotto. Gli impianti di biogas idonei al trattamento di matrici prevalentemente   solide sono chiamati "a secco" e cioè non hanno bisogno di liquami per il loro   funzionamento. In questo caso l'acqua necessaria al processo è legata   all'umidità del materiale utilizzato per alimentare l'impianto. Il gas metano   prodotto in questo processo può essere quindi utilizzato per la combustione in   caldaie da riscaldamento o nei motori a scoppio. Quest'ultima applicazione ha   trovato buon successo in Paesi del centro Europa quali Svizzera, Germania, Svezia ecc., e in via sperimentale anche in Italia.
  Biomassa  
  Le fonti di energia da biomassa sono costituite dalle sostanze di origine animale e vegetale, non fossili, che   possono essere usate come combustibili per la produzione di energia. Alcune   fonti come la legna non necessitano di subire trattamenti; altre come gli scarti   vegetali o i rifiuti urbani devono essere processate in un digestore.  Dalla fermentazione dei   vegetali ricchi di zuccheri, come canna da zucchero, barbabietole e mais, spesso prodotti in   quantità superiori al fabbisogno, si può ricavare l'etanolo o alcool etilico, che può essere utilizzato come   combustibile per i motori a scoppio, in sostituzione della benzina. Dalle oleaginose (quali girasole, colza, soia) si può ottenere per spremitura il   cosiddetto biodiesel. Tramite opportuno procedimento è inoltre possibile trasformare le biomasse di   qualsiasi natura in BTL (Biomass to liquid), un biodiesel, ottenuto appunto da materiale organico di   scarto o prodotto appositamente con colture dedicate. Lo sfruttamento di nessuna di queste fonti può comunque prescindere da   valutazioni sull'EROEI complessivo, ossia   sul rapporto tra energia ottenuta ed energia impiegata nella produzione. Per un approfondimento sulle biomasse vedi articolo.
  Bonifiche.  
 La bonifica di territori e di aree industriali può avere ricadute economiche positive. Vedi articolo.
  Borsa elettrica  
  Luogo virtuale in cui avviene l’incontro  tra domanda e offerta per la compravendita dell’energia elettrica all’ingrosso. La gestione economica della  borsa elettrica è affidata al GME ai sensi dell’art. 5 del d.lgs. 79/99.
    Bosone di Higgs  
  Vedi articolo. 
  Buco di tensione  
  Diminuzione improvvisa della tensione di alimentazione all’utenza ad un valore   compreso tra il 90 % e l’1 % della tensione nominale per un periodo di tempo   superiore a 10 millisecondi ed inferiore o uguale a 1 minuto. 
    BWR  
  Vedi, Reattore nucleare a fissione. 
  Caldaia  
  Caldaia è un termine che definisce vari tipi di macchine   termiche :
  - I generatori di vapore, destinati alla   produzione di vapore, generalmente acqueo; 
- Le caldaie per riscaldamento,   destinate al trasferimento del calore dal combustibile all'ambiente domestico
   Campo elettrico  
  Il campo elettrico è un campo vettoriale. Una certa zona dello spazio   è sede di un campo elettrico, quando in essa agiscono azioni meccaniche di   "attrazione" o "repulsione", tra le  cariche elettriche presenti nella zona   stessa. Dati alcuni fatti sperimentali come l'attrazione e la repulsione tra sostanze   trattate in maniera opportuna (per esempio per strofinìo), si sono definiti due   stati di elettrizzazione della materia: positiva e negativa. Corpi elettrizzati entrambi positivamente o entrambi   negativamente si respingono mentre corpi elettrizzati in modo opposto si   attraggono. Per riconoscere lo stato di elettrizzazione di un corpo si usa uno   strumento chiamato elettroscopio a foglie, costituito da un'ampolla   di vetro nella quale è inserita un'asta metallica la quale, all'interno   dell'ampolla, ha due linguette metalliche molto sottili, mentre all'esterno essa   può essere messa a contatto con un corpo carico. Mettendo a contatto un corpo   carico a esempio positivamente con l'asta, si nota facilmente come le linguette   (giustappunto chiamate foglie) si allontanano l'una dall'altra, in proporzione   all'elettrizzazione del corpo che è stato messo a contatto e in opposizione al   loro peso che tende a farle ricadere verso il basso. Questo dimostra soprattutto   come l'elettrizzazione del corpo si "trasferisca" alle foglie   dell'elettroscopio. Si parla di quantità di carica o di quantità di   elettricità trasferita. Questa  grandezza fisica è una misura   quantitativa dello stato di elettrizzazione della materia. Mettendo a contatto   un corpo carico (cioè elettrizzato, in qualche modo) con un corpo non carico,   quello che succede è semplicemente che una certa quantità di carica si   trasferisce all'altro corpo. Tutto ciò è dovuto alla natura microscopica della materia e in particolare   alle proprietà dei componenti fondamentali dell'atomo. Infatti ogni atomo è composto dal nucleo ove risiedono protoni e neutroni e da una zona esterna dove si trovano gli elettroni. In condizioni normali un   atomo è neutro, cioè ha lo stesso numero di elettroni e protoni. Per   quantificare la carica elettrica si prende allora la carica più piccola   esistente in natura, quella dell'elettrone che è negativa e pari a e =   1,602 189 2 ∙ 10-19 C, uguale ed opposta a quella del protone,   dove C è l'unità di misura della carica chiamata coulomb nel SI. Il neutrone   non possiede carica elettrica. Così un corpo carico elettricamente di una certa   carica Q, ha in effetti una carica data da un numero intero di volte la carica   elementare, se negativa: -Q = n ∙ e; vale inoltre il principio di   conservazione della carica elettrica, secondo il quale in un sistema   isolato, la somma algebrica delle cariche elettriche è costante. Importante notare che la presenza di carica negativa in un corpo è dovuta   all'eccesso di elettroni che si trasferiscono a questo corpo, viceversa, la   presenza di carica positiva è dovuta a difetto di elettroni e non al   trasferimento di protoni. Questo è anche il motivo per cui l'asta   dell'elettroscopio è isolata dall'ampolla di vetro, altrimenti gli elettroni si   trasferirebbero anche sul vetro, producendo un effetto minimo se non nullo sulle   foglie. A partire da questi fatti sperimentali   Coulomb formulò la sua famosa Legge di Coulomb, quantificando la forza   elettrica attrattiva o repulsiva che due corpi puntiformi carichi   elettricamente si scambiano a distanza. Questa legge fondamentale è il punto di   partenza di tutta la teoria dell'elettricità e dell'elettrostatica, che permette   di introdurre il concetto di campo elettrico. Un corpo carico elettricamente produce nello spazio circostante (al limite in tutto lo spazio circostante), la presenza di un nuovo stato di cose: se   introduciamo un'altra carica elettrica, questa risente l'effetto di una forza , appunto la forza elettrica o forza di Coulomb, che segue la legge   di Coulomb, cioè essa è direttamente proporzionale al prodotto delle due   cariche e inversamente proporzionale al quadrato della loro distanza. Questo    stato di cose è quello che si chiama campo elettrico, che è un campo vettoriale di   forze. Se nello spazio poniamo una carica eettrica Q possiamo determinare   la forza che produce su una carica molto piccola posta nelle vicinanze detta carica di prova q0. Come si vede dall'esperienza, tale   forza è proporzionale alla carica elettrica di prova q0; è   quindi logico definire il vettore campo elettrico E in un punto,   come il rapporto tra la forza elettrica generata dalla carica Q e il   valore della carica di prova stessa; questo rapporto rende indipendente il campo   dalla particolare carica di prova usata:
    
(Dalla definizione si ricava che l'unità di misura del campo elettrico è  ,   cioè newton/coulomb. Essa equivale anche a
,   cioè newton/coulomb. Essa equivale anche a  ,   cioè volt/metro). Il campo elettrico è un campo vettoriale rappresentato attraverso   linee di campo, tangenti in ogni punto dello spazio alle superfici   'equi-potenziali', che sono più fitte intorno alla carica e si diradano   all'aumentare della distanza. Se la carica considerata è positiva le linee di   campo si dicono uscenti (si irradiano in tutte le direzioni a partire dalla   carica) e la carica è definita sorgente; se la carica considerata è negativa le   linee di campo sono dette entranti (sono dirette verso la carica) e la carica è   definita pozzo.
,   cioè volt/metro). Il campo elettrico è un campo vettoriale rappresentato attraverso   linee di campo, tangenti in ogni punto dello spazio alle superfici   'equi-potenziali', che sono più fitte intorno alla carica e si diradano   all'aumentare della distanza. Se la carica considerata è positiva le linee di   campo si dicono uscenti (si irradiano in tutte le direzioni a partire dalla   carica) e la carica è definita sorgente; se la carica considerata è negativa le   linee di campo sono dette entranti (sono dirette verso la carica) e la carica è   definita pozzo.
Visto che il campo elettrico è il gradiente del potenziale
    
il potenziale è rappresentato attraverso un campo scalare caratterizzato da linee di livello   a potenziale costante (dette per questo motivo superfici equipotenziali)   perpendicolari alle linee di flusso del campo elettrico per definizione.
  Campo fotovoltaico   
  Insieme di moduli fotovoltaici, connessi elettricamente tra loro e installati meccanicamente nella loro
sede di funzionamento
Campo magnetico   
E' un campo vettoriale: associa, cioè, ad ogni punto   nello spazio un vettore che   può variare nel tempo. L'effetto fisico di   un campo magnetico si esplica in termini della forza di Lorentz subita da una carica   elettrica in movimento attraverso, appunto, il campo. Sorgenti del campo   magnetico sono le correnti elettriche. Storicamente gli effetti magnetici vengono scoperti grazie a magneti naturali che, allo stesso tempo, generano un   campo magnetico e ne subiscono gli effetti per via delle correnti elettriche su   scala atomica. La direzione del vettore campo è la direzione indicata dalla posizione   d'equilibrio dell'ago di una bussola immersa nel campo. Il verso del   vettore campo si determina con la regola della presa della mano   destra. Il campo magnetico, solitamente indicato con il vettore B,   storicamente era la densità di flusso   magnetico o induzione magnetica, e H (=B/μ) era il campo magnetico:   questa terminologia è oggi utilizzata per distinguere tra il campo magnetico nel   vuoto (B) e quello in un materiale (H, con μ diversa   dall'unità). L'unità di misura dell'induzione magnetica nel SI è il tesla. Lo strumento per la misura del campo magnetico è il magnetometro
CANDU  
Vedi: Reattore nucleare a fissione
CAOS Teoria del  
Vedi articolo
Capacità elettrica    
La capacità elettrica è una grandezza   fisica scalare che misura la quantità di carica elettrica accumulata da un condensatore in rapporto alla differenza di potenziale fra i suoi   capi, secondo la formula
  - 
    
        
 
dove C indica la capacità, Q la carica e V la differenza   di potenziale. L'unità di   misura della capacità elettrica nel Sistema   internazionale di unità di misura è il farad, equivalente ad un coulomb al volt.
  Carbone    
  Con il termine “carbone fossile” si intende qualsiasi sostanza costituita da   resti vegetali, più o meno completamente fossilizzati secondo il processo di   carbonizzazione, e che presenti la proprietà di combinarsi con l’ossigeno   atmosferico con reazione fortemente esotermica (produzione di calore). In   pratica, la carbonizzazione avviene per trasformazione delle sostanze organiche   originali (legno o altri vegetali) secondo un processo che è inizialmente   microbiologico e che poi prosegue, nel corso di millenni, attraverso complesse   trasformazioni con il determinante intervento di fattori fisici, quali la   pressione e la temperatura in assenza dell’azione ossidante   dell’aria. Vi sono numerose tipologie di carboni fossili, caratterizzati da particolari proprietà   fisiche e chimiche che rivestono grande importanza ai fini della loro   utilizzazione pratica. I più noti sono la torba, la lignite, il   litantrace (il “carbone” per antonomasia) e l’antracite (la varietà   qualitativamente più pregiata). Il carbone fossile è stato utilizzato fin   dall’antichità come combustibile. Numerose prove archeologiche ne testimoniano   l’uso fin dall’Età del Bronzo, ma è a partire dal secolo XIX che il suo   sfruttamento su larga scala imprime un’accelerazione decisiva al progresso   industriale. Ancora oggi il carbone costituisce una delle fonti   energetiche di primaria importanza su scala planetaria, soddisfacendo una   quota superiore a un quarto dell’intera domanda mondiale di energia primaria    e confermandosi come la seconda   fonte di energia dopo il petrolio. Con una presenza diffusa in molte aree del   mondo, il carbone soddisfa quasi il 45% del fabbisogno energetico complessivo   dell’Asia e più del 50% di alcuni Paesi, tra cui Cina e India. Riveste inoltre   una indiscussa importanza strategica, poiché, in base alle riserve accertate e   ai previsti livelli di consumo, la sua disponibilità appare garantita per ancora   alcuni secoli. La accresciuta domanda energetica degli ultimi anni ha   portato a un incremento della quota di carbone sul totale del fabbisogno   energetico mondiale. A ciò ha contribuito, da un lato, la crescita dei prezzi   del petrolio e del gas naturale e, dall’altro, il recupero di competitività   dell’industria carbonifera, che è riuscita a mantenere bassi i costi di   produzione grazie a un continuo miglioramento delle tecnologie di estrazione e   allo sfruttamento di miniere a cielo aperto. Nel campo della   produzione di energia elettrica, l’utilizzo di tecnologie più evolute per il   trattamento dei fumi ha ridotto notevolmente l’impatto ambientale delle centrali   a carbone, che può essere oggi del tutto confrontabile con quello delle altre   centrali termoelettriche. In Italia, l’unica risorsa carbonifera è   concentrata in Sardegna, nel bacino del Sulcis. Si tratta però di minerale di   scarsa qualità. Per tale motivo, oltre che per ragioni di economicità, il   carbone viene quasi interamente importato. In ogni caso il suo contributo al fabbisogno di energia primaria   nazionale  è ancora relativamente   modesto, pari a circa l’8%. In Europa circa un   terzo dell’energia elettrica viene prodotta utilizzando il carbone come   combustibile. Anche Paesi ad alta sensibilità ambientale come la Germania e   la Danimarca usano il carbone per produrre una quota assai rilevante della loro   elettricità.
  Carbonio-14 
 
  Gli isotopi naturalmente presenti sulla terra sono C-12 (99%), C-13 ( meno dell'1%) e in tracce il C-14, isotopo radioattivo. Esso è presente in natura con un'abbondanza relativa di 1 parte su mille miliardi di tutto il carbonio presente in natura e ha un tempo di dimezzamento di 5.700 anni. La principale fonte di carbonio-14 sulla terra è la reazione tra i raggi cosmici e l'azoto gassoso presente nell'atmosfera (nella troposfera e nella stratosfera). L'inglobamento di neutroni termici da parte dell'azoto, forma un atomo di carbonio-14: N-14 + n  > C-14 + p.  La produzione maggiore di carbonio-14 avviene ad una quota tra i 9 km e i 15 km, e ad alte latitudini geomagnetiche. Il carbonio-14 così prodotto reagisce con l'ossigeno a dare anidride carbonica CO2-14 che viene riutilizzata dalle piante durante la fotosintesi. In questo modo il carbonio-14 si trasferisce nei composti organici e attraverso la rete alimentare è presente ovunque secondo un preciso rapporto. Essa penetra anche negli oceani, sciogliendosi nell'acqua. Il carbonio-14 è anche prodotto nel ghiaccio da neutroni che causano reazioni di spallazione nucleare nell'ossigeno. Grazie alla sua lunga emivita rispetto alla vita degli organismi viventi, il carbonio-14 rimane integrato in ogni sistema organico vivente. Dopo la morte, l'organismo smette di assumere carbonio-14. La quantità dell'isotopo presente nell'organismo nell'istante della sua morte, andrà via via affievolendosi negli anni a causa del decadimento radioattivo. Questo principio è sfruttato nella datazione radiometrica di campioni organici, tecnica con la quale si misura la quantità residua di carbonio-14 presente in un reperto archeologico organico (come un fossile o una struttura in legno): conoscendo la curva di decadimento e la quantità iniziale di carbonio-14 presente nel reperto quando la sua struttura organica era ancora vitale (ovvero un istante prima di morire), si può facilmente stabilire quanti anni sono trascorsi dalla morte dell'organismo. In generale, è possibile radiodatare solo reperti risalenti fino a 40.000 - 60.000 anni fa. La maggior parte dei prodotti chimici prodotti dall'Uomo sono ottenuti a partire da combustibili fossili come il petrolio o il carbone, dove il carbonio-14 è decaduto. La presenza di tracce isotopiche di carbonio-14 in un campione di materiale carbonaceo indica quindi una possibile origine biogenica. 
   Casa passiva  
  La casa passiva (Passivhaus secondo il termine originale di lingua tedesca, passive house in lingua inglese) è un'abitazione che assicura il   benessere termico senza alcun impianto di riscaldamento "convenzionale", ossia caldaia e termosifoni o sistemi analoghi. La casa è detta passiva perché la somma degli apporti passivi di   calore dell'irraggiamento solare trasmessi dalle finestre e il calore generato   internamente all'edificio da elettrodomestici e dagli occupanti stessi sono   quasi sufficienti a compensare le perdite dell'involucro durante la stagione   fredda. Edifici passivi possono essere realizzati in ogni materiale di costruzione: legno   strutturale, mattone, cemento armato. L'energia necessaria a pareggiare il bilancio termico dell'edificio è   tipicamente fornita con sistemi non convenzionali (es. pannelli solari o pompa di calore per   riscaldare l'aria dell'impianto di ventilazione   controllata a recupero energetico). L'impianto di riscaldamento convenzionale si può eliminare se il fabbisogno   energetico della casa è molto basso, convenzionalmente inferiore a 15 kWh al m² anno. Queste prestazioni si ottengono con   una progettazione molto attenta, specie nei riguardi del sole, con l'adozione di isolamento   termico ad altissime prestazioni su murature perimetrali, tetto e superfici   vetrate e mediante l'adozione di sistemi di ventilazione   controllata a recupero energetico.
   Cassa conguaglio per il settore elettrico  
  E’ un organismo istituito nel 1961, in conseguenza della decisione del CIP   (Comitato Interministeriale Prezzi) di creare un meccanismo di perequazione al   momento dell'introduzione della tariffa unica nazionale.
  Cella fotovoltaica   
La cella fotovoltaica è l'elemento base nella costruzione di un modulo   fotovoltaico (vedi voce), ma può venire anche impiegata singolarmente in usi specifici. La versione più diffusa di cella fotovoltaica, quella in materiale   cristallino, è costituita da una lamina di materiale semiconduttore, il più diffuso dei quali è il silicio, e si presenta in genere di   colore nero o blu e con dimensioni variabili dai 4 ai 6 pollici. Piccoli esemplari di celle fotovoltaiche in materiale amorfo sono in grado di   alimentare autonomamente dispositivi elettronici di consumo, quali calcolatrici,   orologi e simili. Analogamente al modulo, il rendimento della cella fotovoltaica si ottiene   valutando il rapporto tra l'energia prodotta dalla cella e l'energia luminosa   che investe l'intera sua superficie. Valori tipici per gli esemplari in silicio   cristallino comunemente disponibili sul mercato si attestano attorno al 15%. Vedi modulo fotovoltaico. 
I sistemi fotovoltaici attualmente in uso si basano su celle realizzate con   silicio cristallino, uno degli elementi più comuni sulla crosta terrestre.   Abbonda, ad esempio, nella sabbia, comunemente costituita da ossido di silicio   sotto forma sia cristallina sia amorfa.
  L’elevato costo delle celle non è   quindi dovuto alla materia prima, la silice, ma al processo di lavorazione   necessario ad ottenere un prodotto puro, in grado di manifestare proprietà di   semiconduttore. La sabbia (SiO2), viene trasformata (mediante riduzione con   carbonio, in un forno ad arco e a temperature superiori a quelle di fusione del   silicio elementare) in silicio “metallurgico”, liquido, che viene   raffreddato a formare i lingotti di grado industriale. Il prodotto,   ottenuto a bassi costi, presenta tuttavia elevate impurità e non risulta   idoneo né agli usi elettronici né alla produzione di celle   fotovoltaiche. Si procede quindi ad una fase di purificazione, che   viene realizzata trasformando il silicio metallurgico in triclorosilano   gassoso. La purificazione viene eseguita mediante distillazione frazionata in   reattore a letto fluido, ove viene diffuso acido cloridrico (HCl) con   conseguente formazione separata di triclorosilano, idrogeno molecolare e altre   sostanze. A questo punto il triclorosilano aeriforme viene filtrato e fatto   reagire (in un secondo reattore) con l’idrogeno molecolare. Il silicio   policristallino che si forma é purissimo e viene depositato lentamente sopra   sbarre, anch’esse di silicio puro. La temperatura raggiunta in entrambi i   reattori è superiore ai 1.100 °C ed il costo energetico è   notevole. Questo è il materiale base dell’industria   elettronica. Nel caso si voglia ottenere silicio monocristallino si   deve procedere ad una nuova fusione a radiofrequenza del silicio   policristallino. Nel materiale nuovamente fuso si inserisce quindi un cristallo   di silicio monocristallino, che funge da “seme” per il successivo “tiraggio” e   accrescimento di lingotti monocristallini lunghi circa un metro e larghi 10   cm. Il principio di crescita dei cristalli è molto semplice, ma, oltre ad   avere anch’esso costi energetici rilevanti, richiede una specifica linea di   produzione con acquisizione di macchinari complessi. È questo il motivo per cui i lingotti monocristallini costano circa il doppio rispetto a quelli   policristallini. Per la produzione di celle fotovoltaiche si parte   da una miscela di scarti dell’industria elettronica (teste e code di   cilindri, dischi cilindrici venuti male, scarti rimasti nel crogiolo, scarti di   lavorazioni eccetera) tenendo presente che la cella fotovoltaica dovrà essere   costituita da una fetta di silicio di cui una delle due facce è “drogata” con   atomi di boro e l’altra faccia con atomi di fosforo. Infatti è nella zona di   contatto tra i due strati a diverso drogaggio che si determina il campo   elettrico che, quando la cella è esposta alla luce, determina il flusso di   elettroni sotto forma di corrente continua. La miscela di scarti silicio   viene dunque sottoposta a specifici lavaggi e quindi caricata in un crogiolo di   quarzo cui sono aggiunti parti di boro per ottenere pani di silicio cosiddetti   di tipo p. Il crogiolo viene inserito in un forno miscelatore a radio   frequenza dove è sottoposto a un ciclo di lavorazione di 52 ore, con   temperature altissime (1.560 °C). Dopo la fusione del silicio, il crogiolo viene   sottoposto a un movimento elicoidale diretto verso il basso che porta, per   raffreddamento, alla formazione di pani di silicio mono o poli-cristallino (a   seconda del materiale di partenza). Il pane di silicio, così formato,   viene adagiato sopra un supporto metallico ed inserito in una macchina per   l'esecuzione del taglio. La macchina taglierà il pane in lingotti con una   sega circolare a denti di diamante: si tratta di un processo complesso nel   quale viene perduto circa il 30% del silicio originario. I lingotti   così ottenuti vengono nuovamente lavati, incollati su una piastra di vetro ed   inseriti in una macchina affettatrice per procedere all'operazione di taglio   delle fette (wafer) per mezzo di un filo d'acciaio. I wafer prodotti, presentano tuttavia superfici irregolari, per cui, dopo un ulteriore   lavaggio, vengono sottoposti a levigazione. L'operazione successiva è il trattamento antiriflesso che viene eseguito immergendo le fette in una   soluzione debole di idrossido di sodio (NaOH) ed alcol isopropilico. La   soluzione corrode lentamente la superficie delle fette e forma sui cristalli   delle microscopiche piramidi che impediranno parzialmente la   riflessione. A questo punto della lavorazione i wafer sono interamente di tipo p. La fase successiva prevede la realizzazione della giunzione p – n , e, a tale scopo, si copre una delle due facce dei singoli   wafer, che vengono  introdotti in un forno e bagnati con vapori di fosforo   alla temperatura di 600°C. Regolando le temperature, il fosforo condensa sulla   superficie del silicio e viene assorbito gradualmente sostituendo tutti gli   atomi di boro precedentemente inseriti. In tal modo si “droga” con fosforo uno   strato di circa 0,3 micron di tipo n. Infine si effettua una ulteriore   operazione di pulizia chimica, cui segue il decapaggio, per eliminare le   giunzioni parassite lungo lo spessore perimetrale delle fette. I wafer   così ottenuti sono finalmente pronti muniti dei contatti metallici necessari a   raccogliere l’energia elettrica generata e a inviarla all’esterno. Il   procedimento avviene per serigrafia, dapprima sul lato del wafer da esporre alla   luce (lato n), ove si realizza una griglia di pasta di argento a maglie   larghe e di elevata trasparenza alla luce incidente. La serigrafia sul lato p, non esposto alla luce, si esegue invece con una lamina piana e con una   pasta a base di alluminio. I contatti metallici vengono asciugati in un forno ad   infrarossi che fa evaporare la matrice organica delle paste e compatta i grani   metallici disciolti normalizzando le tensioni con il supporto. L'ultimo   trattamento è rappresentato dall'esecuzione di una seconda operazione   antiriflesso a base di biossido di titanio, che tra l’altro conferisce una   colorazione azzurrina alle fette. Il ciclo di produzione viene concluso   con la misura delle caratteristiche elettriche della cella che classifica ognuna   di esse per categoria d'efficienza. La cella così costruita rappresenta   l'unità base di un pannello fotovoltaico che viene realizzato assemblando insieme   più celle. In figura è mostrata una cella di silicio monocristallino 

   
  Cella fotovoltaica a film sottile  In sostituzione della cella costituita da un wafer di silicio drogato è entrata sul mercato la tecnologia del film sottile. Attualmente diversi material sono in competizione per i film sottili: a-Si (silicio amorfo). Giova notare che il silicio amorfo assorbe la luce molto più efficacemente del silicio cristallino, per questo motivo lo spessore della cella in a-Si può essere cento volte minore dello spessore della cella in Si cristallino; a-Si/µ-Si (giunzione ibrida silicio amorfo/ silicio microcristallino). I due materiali, entrambi semiconduttori, hanno caratteristiche complementari rispetto all’assorbimento della radiazione solare; CIS (rame, indio, diseleniuro); CdTe (tellururo di cadmio).  
  Centrale a gas  
  Una centrale a gas è una centrale termoelettrica in cui il   fluido di lavoro è un gas, generalmente aria, che compie un particolare ciclo   termodinamico denominato Joule. Il cuore di questo tipo di   centrale è una particolare macchina   motrice denominata turbogas, composta da un compressore, una camera o sistema di combustione e   una turbina. Il combustibile più   utilizzato in questo tipo di centrale è il gas naturale. Le centrali di questo tipo possono   essere semplici, combinate o cogenerative.
    Centrale elettrica  
  Una centrale elettrica è un impianto industriale atto alla produzione di energia   elettrica. La società moderna si basa in maniera imprescindibile sull'uso   dell'energia   elettrica, perciò la produzione di tale energia e, conseguentemente, le centrali elettriche   hanno un'importanza tecnologica e strategica fondamentale. Le centrali   elettriche odierne producono energia quasi esclusivamente in corrente   alternata avvalendosi di macchine elettriche denominate alternatori. Esistono eccezioni   in Russia, dove, per problemi di perdite   su elettrodotti estremamente   lunghi, sono state create centrali elettriche in corrente continua. Le centrali elettriche si caratterizzano principalmente per due aspetti che   sono spesso legati fra loro ovvero la potenza, cioè l'energia per unità di tempo che una centrale è in grado   di erogare e il tipo di combustibile o altro sistema energetico in   ingresso che convertito consenta di ottenere energia elettrica. La produzione di elettricità da combustibili fossili (petrolio, gas naturale,   carbone) non è una fonte   rinnovabile dal momento che le riserve di combustibile sono limitate. Si può   però ricavare energia termica anche da altre fonti di calore, e cioè dalle fonti   energetiche rinnovabili come il calore terrestre (centrali   geotermiche) e quello solare (centrali solari) oppure attraverso l'utilizzo   dell'energia nucleare (centrali nucleari).
  Centrale eolica  
Le centrali eoliche sono centrali che sfruttano la velocità del vento per la   produzione di energia elettrica. Il principio di funzionamento è abbastanza   semplice, il modulo base di una centrale eolica è il generatore eolico.   Questa apparecchiatura è composta da un'elica (o al limite una singola pala)   collegata ad un albero alla quale è calettato il generatore di corrente. L'elica e il generatore sono normalmente posti ad altezze elevate in modo da   essere attraversati dai venti, venti che mettendo in rotazione l'elica azionano   il generatore che produce così energia. I generatori eolici possono essere di varie dimensioni ed essere utilizzati   sia per un uso domestico rurale o in centrali normalmente composte di numerosi   generatori. Le potenze di tali generatori variano dalle centinaia di W alle   centinaia di kW. Vantaggi. Come per le centrali solari quelle eoliche non hanno residui, scorie o altri   sottoprodotti. Il vento è gratis, quindi l'unica spesa è l'installazione e la   manutenzione. Le centrali eoliche hanno un costo di costruzione abbastanza   contenuto, 500.000 euro per un aerogeneratore da 1 MW, il quale tende però a   lievitare in modo enorme per impianti di dimensioni adeguate alla produzione   industriale. A terra occupa meno di 100 metri quadri, quindi non toglie la   possibilità di continuare le precedenti attività su quel terreno (es.   pastorizia, colture, ...). Svantaggi. Le centrali eoliche per produrre quantità di energia apprezzabili devono   essere costituite da un numero consistente di generatori eolici, che devono   essere distanziati per poter sfruttare il vento e per evitare un affollamento   che sarebbe sgradevole. Inoltre, la disponibilità produttiva è molto bassa   (14,5%) a causa della discontinuità del vento e, dunque, a parità di potenza   nominale installata, una centrale eolica produce un sesto di una centrale   nucleare ed un quinto di una centrale a gas, richiedendo in compensazione,   dunque, un sovradimensionamento ed un sovracosto pari a 6 volte quello nominale   per ottenere le stesse prestazioni effettive. Si possono installare solo dove c'è abbastanza vento e sono degli impianti   moderatamente rumorosi; la loro pericolosità per i rapaci, naturalmente attratti   dal rumore, è enorme e modificazioni della resistenza aerodinamica dei suoli   possono condurre ad alterazioni permanenti della ventosità, con contraccolpi   sull'ambiente. Un esempio è il caso di Los Angeles, città la cui attuale bassa   ventilazione, e il conseguente permanere dello smog, è probabilmente dovuta   all'installazione di grandi impianti eolici nelle gole attraverso le quali il   vento arrivava alla città che hanno provocato l'innalzamento delle correnti   eoliche e lo scavalcamento della città da parte dei venti. Possibili miglioramenti. Vi sono nuove tecniche che permettono di installare aerogeneratori anche   dove, fino a qualche tempo fa, non era pensabile. Sono state create nuove forme   per le pale degli aerogeneratori, per limitare l'ingombro, sono stati creati   alberi di trasmissione lenti, in modo da limitare notevolmente l'inquinamento   acustico, e vi sono vari incentivi che permettono di ammortizzare il costo nel   giro di pochissimi anni.La figura mostra una centrale eolica tedesca. 

    Centrale fotovoltaica 
  Le centrali basate su pannelli fotovoltaici convertono   direttamente l'energia   solare in corrente elettrica sfruttando l'effetto fotovoltaico. Sebbene tale tecnologia risulti da tempo già affermata in ambito   aerospaziale, per applicazioni di utenze isolate o per altri utilizzi di   nicchia, la realizzazione di centrali fotovoltaiche è oggi ancora in   fase di studio o prototipale.   Attualmente, un'installazione fotovoltaica è conveniente per utenze private o   per piccole e medie imprese, che, in questo modo, possono rivendere energia all'azienda   elettrica e ridurre il costo energetico; negli ultimi anni, le nuove celle   fotovoltaiche basate sul silicio amorfo (o polisilicio) hanno drasticamente   ridotto il prezzo dei pannelli, rendendo maggiormente conveniente l'investimento   iniziale. Vantaggi. Questo tipo di centrali richiede una bassa manutenzione dato che non sono   dotate di complessi impianti ma solamente dei pannelli fotovoltaici che vanno   periodicamente puliti ed orientati in direzione del Sole. Rappresenta, inoltre,   una fonte di energia "pulita", dato che non produce alcun tipo di emissione o impatto ambientale, esclusi quelli necessari   alla realizzazione dell'impianto stesso di produzione. Svantaggi. Il principale svantaggio degli impianti fotovoltaici è dovuto alla bassa   efficienza dei pannelli (al massimo 25% in laboratorio, 14-16% in condizioni   operative) e all'elevato costo dei suddetti pannelli che rende ancora   totalmente antieconomica la realizzazione di centrali fotovoltaiche. Inoltre, si   presenta lo stesso svantaggio strutturale già visto per le centrali eoliche: a   causa della bassissima disponibilità produttiva (11%), causata a sua volta dalla   variabilità nel tempo dell'irraggiamento solare, le centrali solari possono   produrre, a parità di potenza nominale installata, solo poco più di un decimo di   quanto, con la stessa potenza nominale, sono in grado di generare centrali   nucleari, a carbone o a gas, e dunque richiedono, per poter essere sfruttate, un   sovradimensionamento originario e strutturale che ne moltiplica di un ordine di   grandezza i costi. Sviluppi futuri. La produzione di pannelli fotovoltaici a film sottile dovrebbe abbattere sensibilmente il costo degli impianti.In figura una centrale fotovoltaica. 

    Centrale geo-termo-elettrica 
  Le centrali geotermoelettriche sono di fatto centrali termiche che utilizzano   come fluido primario per scaldare le caldaie il calore naturale dei vapori   geotermici contenuti nel sottosuolo (energia geotermica). Non esiste dunque, in   questo tipo di centrali, alcun processo di combustione. Le centrali   geotermoelettriche possono raggiungere potenze anche rilevanti, di qualche   centinaio di MW. Vantaggi. Una volta costruite le tali centrali sono estremamente pulite in quanto   sfruttano un riscaldamento termico del tutto naturale e non hanno, quindi,   scorie o residui atmosferici. Svantaggi. Tali centrali hanno elevati costi di manutenzione dovuti alla composizione   delle acque provenienti dal sottosuolo, che sono ricche di sali disciolti e   creano depositi e incrostazioni. Spesso si trovano giacimenti geotermici anche   molto grandi, ma a temperatura di 80/90 gradi, troppo bassa e non utilizzabile   con le tecniche attuali; un possibile sfruttamento di questi giacimenti è per il   teleriscaldamento. Uno dei problemi maggiori di queste centrali è che possono essere costruite   solamente in appositi siti con presenza di attività geotermica, siti normalmente   abbastanza rari. Esistono poi controversie relative al pericolo di eruzioni geotermali,   riduzioni del livello della falda acquifera e suo inquinamento ma soprattutto   all'inquinamento atmosferico da parte di gas (anidride solforosa) e metalli   pesanti (arsenico) legate alla presenza di centrali geotermiche, in Italia, soprattutto   nella zona del Monte   Amiata. 
  Centrale idrolettrica 
Insieme alle centrali termoelettriche sono state le prime tipologie di centrali in uso.   Il principio di funzionamento delle centrali idroelettriche si basa   sull'utilizzo dell'acqua, o meglio della sua energia cinetica, al fine di produrre energia   elettrica. Le centrali idroelettriche si suddividono in due tipologie:
  - Centrali ad acqua fluente 
Tali centrali sfruttano l'energia cinetica delle acque fluviali (energia   idroelettrica), convogliate in particolari turbine idrauliche messe in rotazione dal   flusso dell'acqua. Collegate all'albero rotante delle turbine vi sono gli alternatori che trasformano   l'energia meccanica di rotazione in energia elettrica.
Tali centrali sfruttano l'energia potenziale di notevoli masse d'acque   poste ad altezza maggiore rispetto a quella di presa (si parla in tal caso di   'invaso', o naturale o artificiale creato tramite dighe). L'energia potenziale dell'acqua viene trasformata   in energia cinetica facendo confluire l'acqua in condotte forzate nelle quali l'acqua raggiunge notevoli velocità. L'acqua viene poi fatta   confluire come nel caso precedente in turbine collegate ad alternatori   producendo così energia. L'impatto ambientale delle centrali   idroelettriche è molto minore di quello delle centrali termoelettriche, per via   dell'assenza di fumi, e riguarda soprattutto il diverso regime delle acque da   esse sfruttate: l'estrazione di energia cinetica rallenta il corso d'acqua,   aumentando la velocità di sedimentazione; nel caso di centrali a caduta è   necessario mettere in conto le opere idrauliche necessarie (dighe e condotte).   La parte maggiore dell'impatto ambientale si verifica durante la costruzione, a   causa degli sbancamenti e delle grandi opere necessarie per realizzare gli   invasi ed il sistema di condotte forzate. Le centrali idroelettriche possono   avere potenze che vanno da alcuni MW (centrali fluviali) alle decine o centinaia   di MW per le grandi centrali a caduta. Il principale vantaggio delle idroelettriche è che, una volta costruite,   offrono energia a costi molto competitivi e non richiedono combustibili o   materie prime; sono una fonte di energia totalmente rinnovabile e di fatto   illimitata. Inoltre, con una manovra chiamata pompaggio (che consiste nel   ripompare l'acqua dai bacini inferiori negli invasi durante le ore notturne,   quando la richiesta di energia è minore) si può accumulare energia prodotta   dalle altre centrali della rete, per restituirla di giorno nelle ore in cui la   domanda di energia raggiunge il massimo. Un ulteriore vantaggio è legato al   fatto che la variazione della produzione di energia può avvenire in maniera   molto più rapida rispetto ad una centrale termoelettrica o nucleare, variando la   quantità di acqua che viene convogliata alla turbina. Il loro impiego è,   infatti, generalmente massimo durante le ore di maggiore consumo energetico. Svantaggi. Soprattutto le centrali a caduta, che richiedono un intervento edilizio di   enormi proporzioni per la realizzazione di laghi artificiali per fungere da   invasi, hanno un impatto ambientale di grandi proporzioni, sia nella fase   costruttiva delle opere, sia a posteriori nell'impatto visivo ed estetico.   Inoltre, il fatto di alterare la portata e la distribuzione delle acque fluviali   porta ad un cambiamento del microclima locale, per la maggiore umidità ed   evaporazione portata dal lago che funge anche da serbatoio di calore, livellando   le temperature fra giorno e notte. Questo porta in genere a variazioni nella   flora e fauna locale; nel caso di bacini montani, si può avere un impatto anche   su eventuali ghiacciai nelle vicinanze. Altro svantaggio è dovuto alla naturale   sedimentazione, che tende a riempire lentamente l'invaso, e richiede dragaggi   periodici: il terriccio di risulta può essere usato a fini edilizi, per riporti   e terrapieni. Esistono inoltre problemi di sicurezza in caso di forti terremoti o frane che   hanno portato, per esempio, al disastro del Vajont nel 1963. In figura è mostrata una centrale idroelettrica dotata di impianto di pompaggio. 

  Centrale maremotrice 
  Le centrali mareomotrici sfruttano il movimento del mare dovuto alle maree. Queste centrali accumulano l'acqua in   un bacino durante l'alta marea e poi la rilasciano durante la bassa marea. L'acqua viene fatta passare in condotte forzate che la conducono in turbine   collegate ad alternatori che consentono di produrre corrente elettrica. In   alcune zone della Terra il dislivello tra alta e bassa marea può essere anche di   20 metri e può, quindi, rendere conveniente l'installazione di questi   impianti. Sono impianti molto simili alle centrali idroelettriche e quindi la   tecnologia è già disponibile e collaudata. Solo poche zone sono adatte per l'istallazione di questi impianti e,   comunque, la potenza generata è modesta rispetto alla superficie occupata   dall'impianto. Una seconda tipologia di centrali è basata sullo sfruttamento delle correnti   sottomarine, che opportunamente incanalate potrebbero generare corrente   elettrica tramite delle turbine. Queste centrali sono attualmente degli   esperimenti da laboratorio, anche se, in breve tempo, si potrebbe passare ad un   loro utilizzo reale per la produzione di corrente elettrica. Una terza tipologia di centrali basata sugli oceani vuole sfruttare la   differenza termica dei diversi strati dell'oceano (energia   talassotermica). Acqua a differenti profondità ha differenti temperature e   queste centrali utilizzano questa differenza di temperatura per produrre   elettricità. Essendo la differenza termica tra i vari strati ridotta queste   centrali hanno sempre un'efficienza molto bassa, tra 1 e il 3%. Ulteriori ipotesi allo studio prevedono di utilizzare meccanicamente il moto   ondoso del mare per la produzione di energia elettrica (vedi energia del   moto ondoso). Una centrale di prova di questa tipologia è stata inaugurata   il 1° ottobre 2007 a Agucadoura nel pressi di Lisbona in Portogallo. La centrale è dotata di 3 elementi Pelamis   P-750, i Pelamis P-750 sono delle strutture galleggianti ancorate al fondo del   mare, il movimento del mare provoca il movimento dei galleggianti, il movimento   di questi viene trasformato in corrente elettrica e inviato a terra. Si ritiene   che l'impianto potrà soddisfare le necessita di quasi 2000 famiglie. 
  Centrale nucleare a fissione.  
  Le centrali nucleari sono analoghe alle centrali termoelettriche; la   differenza sostanziale sta nel tipo di combustibile e di processo tecnologico   che viene utilizzato per fornire calore e formare il vapore da inviare alle turbine. Queste centrali ottengono il   calore da un processo di fissione nucleare del combustibile o in un   prossimo futuro (2040/2050 in ipotesi ottimistiche) dal processo di fusione nucleare del   combustibile. Vantaggi. Questa tipologia di centrali produce un'elevatissima potenza per metro   quadrato occupato dall'impianto, a costi più o meno uguali a quelli del carbone,   che è attualmente la tecnologia economicamente più conveniente, rappresentando   però una soluzione che permette di non dipendere più dai combustibili fossili.   Le centrali nucleari non hanno emissioni inquinanti di alcun tipo, l'impatto   ambientale di una centrale nucleare è estremamente più ridotto di quello di una   centrale termoelettrica per via della completa assenza di emissioni di   combustione, la radioattività emessa dalle strutture è simile a quella emessa da   un orologio da polso fluorescente e come essa inferiore di centinaia di volte al   fondo naturale di radiazioni che comunque vengono percepite per effetto dei   raggi cosmici e della naturale radiazione della terra. Svantaggi. Queste centrali sono potenzialmente pericolose, in particolare se mal   costruite, mal gestite o lasciate in mano a paesi interessati alla   proliferazione militare, giacché le centrali miste civili-militari (come quella   di Chernobyl) sono molto più pericolose di quelle civili. Una rottura dei   sistemi di contenimento e di refrigerazione della centrale, potrebbe portare   alla dispersione nell'ambiente di materiale radioattivo e quindi alla   contaminazione di vaste aree (vedi Disastro di   Chernobyl): tale rischio, abbastanza basso per le centrali più recenti e attualmente operative, è viceversa presente per alcune delle   centrali più vecchie operative in tutto il mondo. Lo smaltimento delle scorie radioattive e lo smantellamento della centrale   stessa al termine del suo ciclo vitale (circa 25-30 anni) è un problema non   completamente risolto: la Finlandia e la Svezia per esempio hanno individuato siti sicuri per lo   smaltimento delle scorie nei rispettivi territori, grazie alla presenza di zone   sismicamente stabili e disabitate. In Italia invece, con un territorio molto più   densamente popolato e quasi tutto a rischio sismico, lo smaltimento resta un   problema difficile. Le rigide norme di sicurezza rendono la costruzione di   queste centrali costosa e lenta, anche per la variabilità nel tempo delle stesse   norme. L'avvento di centrali nucleari di quarta generazione o comunque avanzate   dovrebbe risolvere alcuni degli aspetti negativi, ma, per ora, tali impianti   sono solamente allo studio teorico. Le centrali autofertilizzanti invece sono state prototipate finora con scarso successo (per esempio il Superphenix);   tuttavia l'idea è quella di consentire il riutilizzo del "combustibile" esausto   dei reattori tradizionali per produrre altro materiale fissile (in particolare, plutonio) riducendo i problemi di   approvvigionamento dell'uranio. D'altra parte la produzione di più materiale   fissile di quello "bruciato" potrebbe alla lunga creare problemi ancora   maggiori, fra cui anche quello relativo al proliferare potenziale di arsenali   atomici. L'adozione di reattori autofertilizzanti promette un maggior   sfruttamento del "combustibile" rispetto ai reattori di 2° e 3° generazione, con   una conseguente moltiplicazione delle risorse, attualmente scarse, di   combustibile nucleare. Le riserve di 100 anni per l'uranio e di qualche secolo per il torio dovrebbero pertanto essere estese a tempi molto più   lunghi benché oggetto di dibattito. In figura è mostrato lo schema di una centrale ad acqua pressurizzata (PWR). 

  Centrale solare termica 
Per centrali solari s'intendono le centrali solari termiche, che   sfruttano l'energia   solare, da non confondersi con i pannelli   fotovoltaici. Le centrali solari termiche utilizzano come principio di base quello delle   centrali termiche classiche, anche in questo caso la differenza sta nel metodo   in cui viene scaldata l'acqua della caldaia. Normalmente la centrale è formata da una superficie nella quale sono posti   centinaia di specchi che concentrano i raggi solari in unico punto centrale   (detto fuoco) nel quale si trova la caldaia. Questa colpita da tutti i raggi   deviati dagli specchi si scalda fino a raggiungere temperature sufficientemente   elevate per completare il ciclo del vapore fino alla turbina. Oppure da campi di   concentratori parabolici lineari (in inglese parabolic trough), che riscaldano   il fluido all’interno di condotti che percorrono la linea del fuoco. Vantaggi.  Notevoli sono i lati positivi di questa fonte di energia, non ci sono   emissioni inquinanti o di gas serra, non è necessario il trasporto di   combustibili, non si producono scorie e la centrale non è pericolosa per gli   abitanti nei dintorni. Altro vantaggio è che, esclusi i costi di costruzione e   manutenzione, si produce energia senza bisogno di materie prime, in quanto la   luce solare è gratuita. Svantaggi. Questo tipo di centrali richiedono una superficie di esposizione solare di   dimensioni elevate, che aumenta in funzione della potenza che si vuole produrre.   Ovviamente, producono solo se sottoposte a buon irraggiamento solare, può,   quindi, essere sufficiente una nuvola per interrompere il processo di   produzione. Gli impianti più moderni, infatti, prevedono di stoccare il fluido   ad alta temperatura in appositi serbatoi isolati, che permettono di far   funzionare le turbine non solo durante la notte ma con una autonomia di alcuni   giorni in caso di cattivo tempo. Questi impianti hanno, comunque, la possibilità   di essere alimentati a gas, nel caso le condizioni sfavorevoli perdurino. Le   centrali termiche solari hanno potenze minime, i 20 megawatt raggiunti dalle   tecnologie solari alla centrale di Priolo bastano ad un paese di 20 mila   abitanti, una centrale termoelettrica ordinaria produce tra le 50 e le 200 volte   di più. I costi per la messa in esercizio delle centrali solari sono, inoltre,   elevatissimi, anche a ragione della necessità di sovradimensionare le strutture   produttive in modo enorme per compensare la bassa disponibilità produttiva   generata dalla discontinuità dell'irraggiamento, la quale è dovuta al ciclo   solare e non può, dunque, essere aggirata ma è destinata ad essere sempre un   problema strutturale della tecnologia. Le centrali solari ad alta temperatura a volano termico con la sostituzione   dell'acqua con, miscele (anidre) di sali fusi altobollenti proposte in Italia   dal premio Nobel Carlo   Rubbia rappresentano le fonti da questo tipo di energia con la maggiore   convenienza prospettata attualmente in sperimentazione. Possibili miglioramenti. In queste centrali spesso durante l'anno non si raggiungono le temperature di   110 gradi richieste (per poter far evaporare l'acqua). Perciò, nei periodi in   cui non vi è una sufficiente insolazione, una buona soluzione sarebbe quella di   utilizzare il calore per produrre semplice acqua calda a 90°C, che, tramite una   rete di teleriscaldamento, può essere utilizzata per   la produzione di acqua calda sanitaria, per alimentare le caldaie a scambiatore   di calore ed i gruppi frigoriferi ad assorbimento. In figura è mostrata una centrale solare a specchi. 

   Centrale termoelettrica 
  Le centrali termoelettriche sono la tipologia di centrali più diffusa. Il principio di funzionamento di   una centrale termoelettrica classica è abbastanza semplice. Un elemento combustibile (derivati del petrolio, carbone o gas, ma anche, in alcuni casi, biomassa o rifiuti) viene bruciato in modo da sviluppare calore; questo calore viene trasmesso a una caldaia, nella quale circola acqua ad   alta pressione (l'acqua deve   subire una serie di trattamenti al fine di essere purificata per non danneggiare   gli impianti), tale acqua viene così trasformata in vapore raggiungendo temperature elevate. Il vapore viene convogliato   verso delle macchine rotanti denominate turbine a vapore nelle quali il vapore espande   convertendo il proprio contenuto entalpico in energia meccanica. Collegati   all'albero in rotazione di tali turbine vi sono gli alternatori i quali   convertono l'energia meccanica di rotazione in energia elettrica. Un'evoluzione è rappresentata dalle centrali a ciclo combinato: il gas   viene bruciato in una turbina a gas che, collegata a un alternatore, produce   elettricità. I gas di scarico della turbina, estrememente caldi, vengono a loro   volta utilizzati per scaldare acqua ed il vapore così ottenuto è usato in una   turbina a vapore come in una centrale termoelettrica tradizionale, generando   altra elettricità. Questo genere di centrali termoelettriche ha un rendimento   elettrico estremamente elevato e comunque maggiore di quelle tradizionali,   arrivando a sfiorare anche il 60% di resa. Generalmente le centrali termoelettriche erogano grandi potenze, dell'ordine   delle centinaia o migliaia di MW e costituiscono la spina dorsale del sistema di   produzione dell'energia elettrica, perché i loro impianti termici danno il   massimo rendimento in regime di produzione costante; di solito, quindi, vengono   tenute in funzione per lunghi periodi di tempo, costituendo la base della   capacità produttiva. Anche se alcuni impianti termoelettrici possono essere   polivalenti, ovvero in grado di utilizzare diversi tipi di combustibile, questo   si ottiene a spese del rendimento termodinamico e quindi della spesa   complessiva: per questo, in generale, si costruiscono centrali termoelettriche   in grado di bruciare con la massima efficienza un particolare combustibile, e si   riadattano gli impianti in caso diventi necessario bruciare un combustibile   diverso. Svantaggi. I residui della combustione dei combustibili generano una quantità elevata di prodotti inquinanti come i   fumi, il particolato fine, gli ossidi di zolfo e azoto e gli idrocarburi aromatici, che possono essere dispersi   nell'ambiente. I progressi tecnologici degli ultimi anni hanno fatto sì che   molte misure per l'abbattimento di tali prodotti fossero implementate nelle   centrali (pretrattamento del combustibile, abbattimento delle polveri,   desolforatori, etc.) rendendo queste emissioni meno dannose. D'altra parte è possibile ridurre notevolmente l'impatto ambientale di queste centrali.   Innanzitutto si può semplicemente utilizzare un combustibile poco inquinante   (come il gas naturale, il gasolio desolforato ed il carbone bonificato). È   possibile contenere notevolmente le emissioni di inquinanti tramite il montaggio   di appositi filtri a reagente e catalizzatori ossidanti. Il calore residuo   anziché essere sprecato immettendolo nell'aria può essere utilizzato per il teleriscaldamento delle case  nella stagione invernale e può   essere utilizzato nel periodo estivo per il condizionamento delle stesse case. In figura è mostrato lo schema di una centrale termoelettrica a ciclo combinato. 

   Certificazione energetica di un edificio 
  Il complesso delle operazioni, svolte da  soggetti accreditati, per il rilascio dell’attestato di certificazione energetica e delle raccomandazioni per il miglioramento  della prestazione energetica dell’edificio.
   Certificato bianco 
  
I certificati bianchi, definiti anche Titoli di Efficienza Energetica (TEE),   rappresentano un incentivo atto a ridurre il consumo energetico in relazione al   bene distribuito. La contrattazione dei TEE può avvenire bilateralmente tra le   parti interessate o all'interno di uno specifico mercato gestito dal GME   (Gestore del Mercato Elettrico). L'Autorità per l'Energia Elettrica e il Gas   (AEEG) è l'ente che autorizza l'emissione dei certificati  bianchi, gestisce la   valutazione economica dei TEE e si occupa del controllo dell'effettivo risparmio   energetico ottenuto.
   Certificato verde 
  Titolo annuale, oggetto di contrattazione nell'ambito della Borsa dell'Energia,   che verrà attribuito dal Gestore della Rete di Trasmissione Nazionale (GRTN)   all'energia elettrica prodotta mediante l'uso di fonti energetiche rinnovabili,   di impianti entrati in esercizio dopo il 1° Aprile 1999, per i primi otto anni   di esercizio degli stessi. Tale titolo è previsto dal Decreto Bersani quale   possibile strumento alternativo per soddisfare l'obbligo, imposto a decorrere   dal 2002 ad ogni produttore/importatore di energia, di immettere in rete una   quota minima di energia verde pari al 2% dell'energia non rinnovabile   prodotta/importata nell'anno precedente. L'offerta di certificati verdi potrà   pervenire da due categorie di soggetti: i produttori (nazionali ed esteri) e,   per la parte di domanda non soddisfatta da questi ultimi, dal Gestore della Rete   di Trasmissione Nazionale (GRTN).
   Chilowatt (kW) 
  Multiplo dell’unità di misura della  potenza, pari a 1.000 Watt.
   Char del carbone. 
  E'  il residuo solido che resta al termine della devolatizzazione del carbone in fase di combustione. 
   Chilowattora (kWh) 
  Unità di misura dell’energia. Un  chilowattora è l’energia consumata in un’ora da un apparecchio utilizzatore da 1 kW.
   Ciclo combinato 
  Tecnologia per la produzione di energia elettrica da combustibili in forma   gassosa che si basa sull'utilizzo di una o più turbine a gas (turbogas)   associate ad una turbina a vapore. Il calore dei fumi allo scarico della turbina   a gas viene sfruttato in un generatore di vapore a recupero nel quale si produce   il vapore poi utilizzato nella turbina a vapore.
   Cip 6
  E' l’acronimo che contraddistingue il Provvedimento del Comitato   Interministeriale Prezzi n.6 del mese di aprile 1992, che stabilisce i prezzi   con i quali i privati potevano vendere all’Enel energia elettrica prodotta da   fonte rinnovabile o assimilata. Il meccanismo del CIP/6 verrà a regime   sostituito dal Sistema dei Certificati Verdi, previsto dal Decreto Bersani. 
   Circuiti lineari in corrente continua 
  In corrente   continua tutta la potenza fornita dai generatori è dissipata sui resistori del circuito (raramente   anche sui generatori: per esempio nella serie tra un generatore di corrente e   uno di tensione). La potenza istantanea assorbita da un resistore lineare, il   cui valore di resistenza è R, si può calcolare, come in qualsiasi regime   di funzionamento, con la legge   di Ohm. La potenza p(t) sarà allora data dalla formula generale:
    
se v(t) e i(t) sono, rispettivamente, la tensione e la corrente   misurate nell'istante t sul bipolo secondo la convenzione degli   utilizzatori. In corrente continua si può semplicemente scrivere :
    
CIRENE 
 Vedi: Reattore nucleare a fissione.
  Climax. 
 Il climax (dal greco klímaks, scala), in ecologia, rappresenta lo stadio finale dell'evoluzione di un ecosistema in una successione ecologica.
  Cliente finale 
  La persona fisica o giuridica che acquista energia elettrica esclusivamente per   uso proprio.
Cliente grossista 
Persona fisica o giuridica che acquista e vende energia elettrica senza   esercitare attività di produzione, trasmissione o distribuzione nei paesi   dell'Unione Europea. 
  Cliente idoneo, cliente libero 
  Persona fisica o giuridica che ha facoltà  di stipulare contratti di fornitura con qualsiasi fornitore di propria scelta (produttore, distributore,  grossista). A partire dal 1° luglio 2007 tutti i clienti sono idonei e hanno diritto ad acquistare energia  direttamente in borsa o da un grossista.
  Cliente vincolato 
  Cliente Finale che, ai sensi del Decreto Legislativo del 16 marzo 1999, n°79, non   rientrando nella categoria dei Clienti Idonei, è legittimato a stipulare   contratti di fornitura esclusivamente con il distributore che esercita il   servizio nell'area territoriale ove è localizzata l'utenza.
  Codice POD 
  Il codice POD (Point of Delivery),  introdotto dalla delibera AEEG 293/05, è definito dal gestore di rete locale. Tale codice identifica il punto di  consegna dell’energia elettrica e viene utilizzato per la trasmissione delle misure al GSE.
   Cogenerazione (C.H.P. Combined Heat and Power). 
Col termine cogenerazione si indica la produzione contemporanea di   diverse forme di energia secondaria (energia elettrica e/o meccanica ed energia termica)   partendo da un'unica fonte (sia fossile che rinnovabile) attuata in un unico sistema   integrato.  Un esempio classico è dato dal funzionamento di un'automobile, la potenza   prelevata dall'albero motore è usata per la trazione e la   produzione di elettricità, il calore sottratto ai cilindri per il riscaldamento   dell'abitacolo e la pressione dei gas di scarico per muovere la turbina di   sovralimentazione. Lo sfruttamento di calore e pressione non comporta un aumento   dei consumi poiché sono "scarti" del processo di conversione da energia chimica   ad energia meccanica attuato dal motore. Il loro sfruttamento consente a parità di energia primaria immessa (il   combustibile) una maggiore quantità di energia secondaria prodotta (movimento,   calore). Un sistema che opera la cogenerazione è il cosiddetto co-generatore. L'energia termica può essere utilizzata per uso industriale o condizionamento   ambientale (riscaldamento, raffreddamento). La cogenerazione viene realizzata   in particolari centrali termoelettriche, dove si   recuperano l'acqua calda o il vapore di processo e/o i fumi, prodotti da un   motore primo alimentato a combustibile fossile (gas naturale, olio combustibile, biomasse, etc): si ottiene così un   significativo risparmio di energia rispetto alla produzione separata   dell'energia elettrica (tramite generazione in centrale elettrica) e   dell'energia termica (tramite centrale termica tradizionale). Un particolare campo dei sistemi di cogenerazione è quello della trigenerazione.L'efficienza può essere espressa in diversi modi, che non sempre portano a un   corretto confronto tra i vari impianti. Si illustrano allora le definizioni   adottate dall'Environmental   Protection Agency (EPA). L'efficienza di un processo semplice è il rapporto tra energia conservata, al   termine del processo, ed energia immessa. Dato che i sistemi di cogenerazione   producono sia elettricità, sia calore, la loro efficienza totale è data dalla   somma dell'efficienza elettrica e dell'efficienza termica. Per esempio un   impianto che utilizza 100 MWh di metano per produrre 40 MWh elettrici e 40 MWh termici ha un'efficienza elettrica e termica del 40% ed   un'efficienza globale dell'80%. L'EPA usa preferibilmente un'altra definizione   di efficienza nota come "efficacia nell'utilizzazione di combustibile", rapporto   tra l'output elettrico netto e il consumo di combustibile netto (che non tiene   conto del combustibile usato per produrre energia termica utilizzabile,   calcolato assumendo un'efficienza specifica della caldaia dell'80%). Il più comune esempio di impianto cogenerativo è quello realizzato con turbogas/motore   alternativo e caldaia a recupero.   I fumi del turbogas o del motore alternativo vengono convogliati attraverso un   condotto fumi nella caldaia a recupero. Il recupero può essere semplice, qualora   non esista un postbruciatore, o un recupero con postcombustione in caso   contrario. I fumi in caldaia permettono di produrre acqua calda, vapore saturo o vapore surriscaldato. Solitamente si   utilizza acqua calda per scopi di riscaldamento, vapore saturo per utenze   industriali e vapore surriscaldato per turbine a vapore e utenze. In definitiva   si ha produzione di energia elettrica attraverso l'alternatore accoppiato al   turbogas ed eventualmente attraverso l'alternatore accoppiato alla turbovapore e   produzione di energia termica sotto forma di vapore, sfruttato poi dalle utenze   connesse. In presenza di turbovapore si ottiene un ciclo combinato in cui la   dispersione energetica è minima e consiste in maggior parte nel calore buttato   in atmosfera dai fumi in uscita dalla caldaia a recupero.per quanto riguarda il   fluido evolvente esso e generalmente l acqua che generalmente raggiunge in molti   casi lo stato di vapore surriscaldato ma in alcuni casi puo assumere temperature   non sufficientemente alte e c e bisogno di scambiatori di calore intermedi per   aumentarne la temperatura ,piu raramente il fluido evolvente e l'aria che   presenta pero il difetto di avere un coefficiente di scambio termico convettivo   troppo basso e quindi sono richieste superfici di scambio termico ben piu   elevate. Per quanto riguarda i motori a combustione interna,generalmente solo il   33% dell erg termica totalmente disponibile viene trasformata in erg meccanica   il resto e in parte perduta causa irreversibilita presenti nel motore pari ad un   altro33% dell erg totale ed infine l ultimo 33% viene emesssa nell ambiente   esterno sotto forma di erg termica che va in definitiva perduta.per recuperare   tale calore altrimenti perduto si utilizzano diversi scambiatori di calore:un   primo scambiatore che permette il raffreddamento dell'olio lubrificante, è   disponibile a bassa temperatura (non oltre gli 80°C),un altro scambiatore per il   raffreddamento dell acqua destinata a refrigerare il motore stesso,ed infine un   ultimo scambiatore posto allo scarico del motore che permette di innnazare di   molto la temperatura del fluido di scambio termico generalmente come e stato   detto acqua che per questo ulteriore scambio termico arriva allo stato di vapore   surriscaldato ,Attraverso tali impianti e possibile produrre erg elettrica o   termica. A parte il costo degli scambiatori questo non costituisce una   complicazione eccessiva di impianto perche tali motori hanno bisogno per   funzionare comunque di un sistema di raffreddamento altrimenti si rischia il   surriscaldamento del motore stesso. Infine, fluidi evolventi particolarmente usati sono gli olii diatermici derivati dal petrolio, che   hanno la caratteristica di mantenersi liquidi a pressione atmosferica fino a   temperature di 300° celsius, ed hanno un punto di solidificazione molto   inferiore rispetto all'acqua, cosa che impedisce che gelino nelle condotte. Incentivi alla cogenerazione.
 Combustibile nucleare. 
  Con il termine combustibile nucleare si indica il materiale fissile che viene posto nel nocciolo di un reattore nucleare. In realtà parlare di "combustibile" è inesatto in quanto non avviene alcuna "combustione" (che è un processo chimico di ossidazione) bensì avvengono trasformazioni di tipo nucleare. Durante il funzionamento del reattore gli atomi del "combustibile" vengono progressivamente scissi tramite il processo a catena di fissione nucleare: il materiale viene man mano trasformato in altri elementi e/o isotopi liberando contemporaneamente energia. Il "combustibile" nucleare è solitamente disposto, all'interno del reattore, in barre. Questo sia per rendere più facile il loro trasporto, sia per poter alternare il combustibile alle barre di moderazione e controllo, sia per rendere più agevole la loro estrazione a fine ciclo. I "combustibili" più comunemente utilizzati sono miscele contenenti un alto contenuto di isotopi fissili. Tipicamente si utilizzano miscele ad alto contenuto di uranio 235 o di alcuni isotopi di plutonio. A seconda del tipo di reattore il combustibile può essere direttamente l'elemento fissile o piuttosto un suo ossido, può essere in forma di una lastra metallica o può essere costituito da tante sferette - dette granuli - alternate ad altre sostanze che svolgono la funzione di moderatore. Il materiale fissile deve essere collocato con una disposizione geometrica che massimizza l'efficienza dell'effetto catena, tenuto conto della necessità di lasciare sufficiente spazio per inserire il moderatore. Durante la fase di progettazione di un reattore nucleare bisogna anche lasciare spazio alle barre di controllo e a dispositivi diagnostici. Da un punto di vista puramente teorico la forma ideale sarebbe quella sferica. Tuttavia motivi di ordine pratico e costruttivo fanno propendere per soluzioni di altro tipo: solitamente si utilizza una forma cilindrica ottenuta dall'accostamento di un gran numero di barre. A differenza di quanto avviene per un combustibile tradizionale, in un reattore nucleare il consumo del combustibile è molto lento e una volta caricato dura generalmente, a seconda del tipo di reattore e del suo utilizzo, parecchi anni. D'altra parte le operazioni di ricarica sono notevolmente complesse. A differenza di quanto avviene con altri tipi di combustibile il prodotto della reazione (le cosiddette scorie) non vengono disperse, ma rimangono principalmente all'interno delle barre stesse o degli elementi immediatamente confinanti. Con l'avanzare del tempo le barre diventano sempre più povere di materiale fissile, fino ad arrivare ad un punto in cui non è più efficiente sfruttarle e devono essere sostituite. A seconda delle geometrie del reattore può succedere che una parte del combustibile si esaurisca più velocemente di altre parti: tipicamente le parte centrale si esaurisce più in fretta di quella esterna. La configurazione a barre è utile in questo caso perché permette la sostituzione soltanto delle parti più esaurite. Le barre esaurite, così come il materiale nelle immediate vicinanze, sono diventate altamente radioattive a causa della presenza dei prodotti di fissione generati dalle reazioni nonché di altro materiale che si può essere attivato durante il processo per cattura neutronica o in conseguenza di altri processi analoghi. Lo smaltimento delle barre esaurite è pertanto la parte più complessa dello smantellamento delle scorie del reattore. 
Compatibilità elettromagnetica 
  Capacità di un dispositivo (apparecchiatura o sistema) di funzionare   correttamente nel suo ambiente elettromagnetico, senza introdurre nell'ambiente   stesso disturbi elettromagnetici superiori all'emissione consentita. 
   Comuni contigui 
  Tale definizione indica quelle aree nelle quali devono ubicarsi i siti delle   singole imprese che compongono una società consortile. Nella norma tali aree   sono Comuni con territori confinanti.
  Condizionatore d'aria 
  Il condizionatore d'aria è una macchina in grado di produrre una   differenza di temperatura (positiva o negativa) che viene ceduta a un fluido che   messo in circolazione a sua volta cede questa differenza di temperatura a un   ambiente per innalzarne o abbassarne la temperatura. I condizionatori si dividono in due grandi famiglie quelli chiamati solo   freddo e quelli detti a pompa di calore. La differenza sostanziale è   che quelli a pompa di calore oltre a raffrescare in estate, in inverno   possono anche riscaldare invertendo il ciclo di funzionamento. Una ulteriore distinzione molto importante è quella relativa alla loro   alimentazione e al loro funzionamento. Ci sono due grandi famiglie, la prima   chiamata ON-OFF e la seconda chiamata a INVERTER. La differenza sostanziale tra le due   tecnologie è la seguente: quella ON-OFF è molto semplice, (costa meno) ed ha un   consumo elevato perché quando si accende va subito alla massima potenza a   prescindere di quanto ne serva effettivamente, quella a INVERTER invece ha una   tecnologia detta modulante. Significa che durante il funzionamento, diminuisce   la potenza necessaria in funzione del raffreddamento ottenuto man mano fino ad   arrivare al minimo necessario al mantenimento della temperatura impostata, tutto   questo con un notevole risparmio energetico. Se il condizionatore viene fatto   funzionare per molte ore, per esempio di notte, è economicamente conveniente il   modello inverter, in caso contrario il maggior costo rispetto al modello on-off   non viene ammortizzato, poiché la funzione modulante interviene dopo almeno 2-3   ore dalla prima accensione.
   Consorzio 
  Organismo composto da un gruppo di utilizzatori di energia; è uno strumento che   permette a coloro che superano determinate soglie di consumo di energia di   unirsi e raggiungere la soglia minima di consumo per poter essere qualificati   come clienti idonei.
   Condensatore 
  Il condensatore o capacitore è un componente   elettrico che immagazzina l'energia in un campo   elettrostatico, accumulando al suo interno una certa quantità di carica elettrica. Nella teoria   dei circuiti il condensatore è un componente ideale che può mantenere   la carica e l'energia accumulata all'infinito, se   isolato (ovvero non connesso ad altri circuiti), oppure scaricare la propria   carica ed energia in un circuito a cui è collegato. Nei circuiti in regime sinusoidale permanente esso determina una differenza   di fase di 90 gradi fra la tensione   applicata e la corrente che lo attraversa. In queste condizioni di funzionamento   la corrente che attraversa un condensatore ideale risulta in anticipo di un quarto di   periodo rispetto alla tensione che è applicata ai suoi morsetti.
   Consumo di energia 
  Quantitativo di energia impiegato da un  individuo o da un apparecchio.
    Consumo e risorese di energia nel mondo 
Per potere comparare direttamente le risorse energetiche del mondo, e il   consumo di energia delle nazioni, questa voce di avvale delle unità del sistema SI e dei prefissi SI e misure della   fornitura di energia/tempo (potenza) in watt (W) e le quantità nette di energia in joule (J). Un watt equivale alla fornitura di un joule   in un secondo (potenza=lavoro/tempo). Nel 2004, il consumo mondiale medio   totale dell'umanità era pari a 15 TW (= 1.5 x 10exp13 W) che per un 86,5%   proveniva dai combustibili fossili. Questo equivale a 0,5 ZJ (= 5 x 10exp20 Joule) per anno,   anche se vi è un'incertezza di almeno il 10% nei valori del consumo energetico   totale del mondo. Non tutte le economie del mondo tengono registri dei loro   consumi energetici con lo stesso rigore, e l'esatto contenuto di energia di un barile di petrolio o di una   tonnellata di carbone varia in   rapporto alla sua qualità. La maggior parte delle risorse energetiche del mondo hanno come fonte prima i   raggi solari che colpiscono la supeficie terrestre - e negli eoni quell'energia si è conservata indirettamente sotto   forma di energia fossile (bitume, carbone, gas, idrati, petrolio) oppure come   energia direttamente impiegabile (ad.esempio i venti si formano in seguito a complessi fenomeni   di riscaldamento nelle zone soleggiate e di convezione nelle zone fredde, il   tutto abbinato alla rotazione terrestre). Anche l'energia   idroelettrica deriva dall'energia solare che provoca evaporazione dell'acqua   e condensazione dell'acqua quando le nuvole incontrano l'aria di fronti   climatici freddi o quando risalgono alte montagne. Il vapor d'acqua salendo in   quota acquisisce una certa energia potenziale che cede in parte alle   piogge ed ai corpi acquosi siti in quote elevate.Il termine costante   solare (in inglese en:solar constant)   definisce la quantità di radiazione elettromagnetica solare che arriva per unità   di superficie, misurandola a livello della superficie esterna dell'atmosfera   terrestre, da un aereo perpendicolare ai raggi. La costante solare include tutti   i tipi di radiazione solare, non soltanto la luce visibile. Il suo valore è   stato misurato da satelliti a circa 1.366 watt per metro quadro, anche se può   variare di circa lo 6,9% durante l'anno - da circa 1.412 W/m2 a gennaio a 1.321 W/m2 a luglio, questo dovuto alla variazione della distanza della terra dal sole, oltre ad una   lieve variazione della luminanza solare di poche parti su mille da un giorno all'altro. Per l'intero globo   terrestre, che ha una sezione di taglio di 127.400.000 km², la potenza fornita   dall'energia solare é di 1.740 × 1017 Watt, con una variazione del +/- 3,5%. 
Le stime sulle risorse energetiche rimanenti nel mondo variano, ed é stato   calcolato che le risorse di combutibili fossili totalizzino uno stimato di 0,4 Yottajoules (1 YJ = 10exp24 J) e che le risorse   disponibili di combustibile nucleare come l'uranio superino i 2,5 YJ. Le riserve di combustibili   fossili dovrebbero essere di 0,6-3 YJ se gli estimi delle riserve di clatrati di metano sono accurate e se il loro   sfruttamento divenisse tecnicamente possibile. Principalmente grazie al Sole, il mondo   possiede anche un flusso di energia rinnovabile utilizzabile, che eccede i 120 Petawatt (pari ad 8.000   volte gli utilizzi totali del 2004), o 3,8 YJ/anno, rendendo così minuscole   tutte le risorse non-rinnovabili.
Sin dall'inizio della rivoluzione industriale, il consumo di   energia nel mondo é cresciuto ad un ritmo sostenuto. Nel 1890 il consumo di carburanti fossili eguagliava   approssimativamente la quantità di combustibile da biomassa che veniva bruciato nelle case e   dall'industria. Nel 1900, il consumo di   energia globale ammontava a 0,7 Terawatt (0,7 volte 10exp12 watt). Secondo stime dell 2006 fatte dall'agenzia usa EIA (United States Department of   Energy), i 15 TW stimati come energia totale consumata nel 2004 si dividono   come indica la tabella sottostante, con i combustibili fossili che forniscono   86% dell'energia consumata dal mondo:
  
    | Tipo di combustibile | Potenza in TW | Energia/anno in EJ | 
  
    | Petrolio | 5,6 | 180 | 
  
    | Gas naturale | 3,5 | 110 | 
  
    | Carbone | 3,8 | 120 | 
  
    | Idroelettrico | 0,9 | 30 | 
  
    | Nucleare | 0,9 | 30 | 
  
    | Geotermia, eolico, solare, legno
 | 0,13 | 4 | 
  
    | Totale | 15 | 471 | 
Negli ultimi quarant'anni, l'utilizzo assoluto dei combustibili fossili é   aumentato con continuità e la loro quota percentuale dell'energia fornita é   aumentata.
  Conto energia
  Mentre con l’espressione “incentivazione  in conto capitale” si intende l’erogazione di un contributo per l’investimento necessario per la  realizzazione di un impianto, con l’espressione “conto energia”viene indicato un meccanismo di  incentivazione che remunera l’energia elettrica prodotta da un impianto per un certo numero di anni. Vai alla voce Normativa. 
  Contratto bilaterale 
  Contratto di fornitura di energia  elettrica concluso al di fuori della borsa elettrica tra un soggetto  produttore grossista e un cliente idoneo. Il prezzo  di fornitura e i profili di immissione e prelievo sono definiti liberamente dalle parti, tuttavia  immissioni e prelievi orari devono essere comunicati a Terna S.p.A. ai fini della verifica di  compatibilità con i vincoli di trasporto della rete di trasmissione nazionale.
   Contratto di vettoriamento 
  Contratto che regola i rapporti tra il gestore della rete contraente ed il   soggetto che usufruisce del servizio di vettoriamento.
  Conversione di  energia 
  Il processo di cambiamento dell'energia da una  forma ad un'altra.
  Conversione fotovoltaica 
  Fenomeno per il quale la luce incidente su  un dispositivo elettronico a stato solido (cella fotovoltaica) genera energia elettrica.
   Convertitore CC/CA, invertitore, inverter 
  Dispositivo elettrico statico che converte  la corrente continua in corrente alternata.
   Corrente alternata  
  La corrente alternata (CA o AC dall'inglese: Alternating current) è caratterizzata da un flusso di corrente variabile nel tempo sia in intensità che in direzione ad intervalli più   o meno regolari. Normalmente la corrente elettrica viene distribuita sotto forma di corrente   alternata a 50 Hz (il + e il - si   alternano nei conduttori ogni cinquantesimo di secondo). L'utilizzo della   corrente alternata deriva dal fatto che i generatori producono di norma corrente   alternata. Alcune apparecchiature tuttavia richiedono la corrente continua,   che viene ottenuta tramite un raddrizzatore. L'andamento del valore di tensione elettrica nel tempo è la forma d'onda. L'energia   elettrica comunemente distribuita ha una forma d'onda sinusoidale.   Il numero di ripetizioni di uno stesso periodo (inteso come modulo ripetuto   indefinitamente) in un secondo è la frequenza, ed è misurata in Hertz. L'elettricità comunemente distribuita ed utilizzata  ha una   forma d'onda sinusoidale perché tale andamento deriva direttamente dal modo di   operare degli alternatori e   dalle leggi dell'induzione magnetica. Dunque la forza   elettromotrice prodotta da un alternatore ha la forma:
    
dove F0 è il valore massimo   costante della forza elettromotrice cioè l'ampiezza, ω è la pulsazione, legata al periodo T ed alla frequenza ν:
   e e  
La corrente alternata deve avere la stessa forma:
    
Una grandezza sinusoidale per definizione ha valore medio nullo su un periodo T. Per questo motivo la grandezza misurabile è il suo valore efficace o   effettivo inteso come il valore quadratico medio:
    
dalla quale si ottiene che la corrente efficace è legata al suo valore   massimo:
    
Per la tensione si ha:
    
La tensione efficace Veff permette di   scrivere il modulo della potenza complessa come
    
  Corrente continua  
  La corrente continua (CC o DC dall'inglese: Direct current) è caratterizzata da un flusso di corrente di intensità e direzione costante   nel tempo. In una corrente continua gli elettroni fluiscono sempre nello stesso senso   all'interno del circuito. La corrente continua è largamente usata a bassa   tensione in elettronica, specialmente nelle apparecchiature alimentate con pile e batterie, che   sono in grado di generare esclusivamente corrente continua. Per questo motivo è   ubiquitariamente impiegata negli impianti elettrici delle automobili, dove viene accumulata   in una batteria al piombo dopo essere   stata generata dall'alternatore e trasformata in continua. È continua   anche l'energia elettrica prodotta da pannelli   fotovoltaici e pile a combustibile. In un sistema in corrente continua, a differenza di uno in alternata, è molto   importante rispettare il verso della corrente, ovvero la polarità. Esiste   infatti nelle batterie un polo positivo ed uno negativo, che   devono essere correttamente collegati al carico. Per esempio, un motore in corrente continua se   alimentato al contrario ruota in senso inverso. Molti circuiti elettronici se   alimentati erroneamente possono guastarsi. La corrente continua può essere prodotta a partire da una corrente   alternata (CA) con un processo di raddrizzamento, effettuato con diodi o ponti   raddrizzatori. In realtà questi dispositivi eliminano la componente negativa   della corrente alternata, producendo una corrente che non è ancora continua ma unidirezionale pulsante, ovvero composta idealmente da una corrente   alternata sovrapposta ad una continua. Un condensatore successivo al raddrizzatore provvede   a livellare il segnale, fornendo una corrente quanto più possibile vicino ad un   valore continuo. Viceversa, la conversione di una corrente continua in una alternata è molto   più complessa, in particolare perché è necessario generare informazione relativa   a forma d'onda, frequenza e fase. L'operazione è svolta da complessi dispositivi   elettronici definiti inverter. La corrente continua fu adottata da Thomas Alva Edison verso la fine del XIX secolo agli inizi della   distribuzione elettrica industriale. Successivamente però la tecnologia si è   spostata verso la corrente alternata, più conveniente per la trasmissione di energia   elettrica a distanza. Oggigiorno la corrente continua è adottata in alcuni elettrodotti (HVDC), nei cavi sottomarini e   nell'alimentazione ferroviaria in   alcune nazioni.
  Corrente elettrica  
  E' un qualsiasi flusso ordinato di carica elettrica, tipicamente attraverso un   filo metallico o qualche altro materiale conduttore. La corrente   convenzionale venne definita inizialmente, nella storia dell'elettricità,   come il flusso di carica positiva, anche se sappiamo, nel caso della conduzione   metallica, che la corrente è causata dal flusso di elettroni con carica negativa nella direzione   opposta. Nonostante ciò, l'originale definizione di corrente convenzionale resta   valida. Il simbolo normalmente usato per la quantità di corrente (la quantità di   carica che scorre nell'unità di tempo) è I, e l'unità di misura nel SI della   corrente elettrica è l'ampere. La   corrente elettrica viene anche chiamata intensità di corrente . Sappiamo che un conduttore si trova in equilibrio elettrico se il campo elettrico è nullo   in ogni punto interno al conduttore, ossia il potenziale elettrico sia costante in ogni   punto del conduttore. Chiaramente se vi è una differenza di potenziale fra due   punti del conduttore allora vi è anche campo elettrico diverso da zero e quindi   corrente elettrica. Questa differenza di potenziale viene chiamata forza   elettromotrice ed è alla base del funzionamento dei circuiti   elettrici ed elettromagnetici insieme alla Legge di Ohm e alle Leggi di Kirchhoff. Presa una sezione del conduttore attraverso la quale transita una quantità di   carica elettrica ΔQ nell'intervallo di tempo   Δt si ha un'intensità di corrente   elettrica:
    
L'intensità di corrente elettrica è una quantità scalare. Essa può essere   rappresentata da un vettore che si chiama densità di corrente. La corrente elettrica può essere misurata direttamente con un amperometro, ma questo metodo   richiede l'interruzione del circuito, che talvolta può essere un inconveniente.   La corrente può anche essere misurata senza interrompere il circuito, tramite il   rilevamento del campo magnetico da essa generato. Gli strumenti usati per questo   comprendono: sensori a effetto   Hall, morsetti e spire di Rogowski.
Costante dielettrica
La permittività elettrica (nel Sistema Internazionale), o impropriamente costante dielettrica (nel linguaggio comune), è una grandezza fisica che descrive come un campo elettrico influenza ed è influenzato da un mezzo dielettrico, ed è determinata dalla capacità di un materiale di polarizzarsi in presenza del campo e quindi ridurre il campo elettrico totale nel materiale. In breve quindi la permettività è la predisposizione di un materiale a trasmettere (o permettere) un campo elettrico. Essa compare nella legge di Coulomb e varia secondo il materiale in cui sono immerse le cariche elettriche. La permittività elettrica è in genere un numero reale; risulta tuttavia molto utile introdurre una permittività complessa quando si trattano campi sinusoidali, cioè quando si lavora nel dominio della frequenza. In questo modo è infatti possibile trattare le equazioni di Maxwell in forma differenziale con un formalismo simile al caso del vuoto anche in mezzi dissipativi (cioè a conducibilità finita ) o dispersivi ( cioè le cui proprietà elettromagnetiche variano al variare della frequenza dei campi incidenti ). Questo accorgimento non è invece possibile nel dominio del tempo. Va inoltre detto che la permittività relativa stessa può, in particolari condizioni, essere rappresentata mediante un numero complesso, in accordo con modelli di polarizzazione macroscopici del primo ordine, i quali descrivono la proporzionalità e lo sfasamento fra il vettore polarizzazione nel dielettrico e il campo esterno forzante. La sua parte immaginaria, in particolare, segue un andamento risonante: è cioè molto piccola alle basse e alle alte frequenze ma presenta uno o più picchi a frequanze fissate, legate all'inerzia dei costituenti atomici del materiale. In corrispondenza di questi picchi l'assorbimento di energia da parte del dielettrico è massimo: esso così si scalda. Un esempio pratico è dato, in tal senso, dal forno a microonde: tale dispositivo infatti "cuoce" i cibi irradiandoli alla frequanza di risonanza dell'acqua, che risponde dissipando energia e cioè scaldandosi. Per questo stesso motivo inoltre, altri materiali, come la ceramica costituente il piatto, non vengono scaldati se non perchè a contatto con cibi caldi: le loro frequanze di assorbimento sono molto diverse da quelle utilizzate nel forno. In un dielettrico si manifestano delle cariche libere, di polarizzazione - sp e + sp. Il termine costante dielettrica del dielettrico fornisce una quantificazione di tale polarizzazione.
Essa si misura in farad al metro nel SI .
Nel vuoto prende il nome di permittività elettrica del vuoto e vale:
dove c è la velocità della luce nel vuoto e µ0 è la permeabilità magnetica nel vuoto. Negli altri mezzi si indica con ed è posta uguale a:
dove viene chiamato permittività elettrica relativa (costante dielettrica relativa) ed è un numero adimensionale sempre maggiore di 1. Poiché nella legge di Coulomb la permittività (costante dielettrica) compare al denominatore, la forza che si esercita fra due cariche elettriche, in valore assoluto, è massima nel vuoto e diminuisce al crescere della permittività relativa. Ciò significa che minore è la costante dielettrica di un mezzo, più esso presenterà caratteristiche isolanti, dato che, se si collocano due corpi di carica opposta alle estremità di una barretta di materiale dielettrico (quindi con costante dielettrica bassa) insorge un campo elettrico lungo la barretta, dando così una forza (legge di Coulomb) alta; al contrario, se tra le due cariche viene posto un materiale conduttore (quindi con costante dielettrica alta), la carica fluisce attraverso di esso e il campo elettrico si annulla dopo pochi istanti, dando così una forza (legge di Coulomb) bassa. Occorre ricordare che i materiali isolanti vengono anche chiamati dielettrici. Nel caso dell'aria, la permettività elettrica è , approssimata ad 1 che è il valore assegnato alla costante dielettrica nel vuoto. L'aria è l'unico mezzo fisico che viene assimilato allo spazio vuoto.Quando si lavora con campi sinusoidali nel dominio della frequenza, si può introdurre una permittività elettrica complessa. Se in un mezzo reale, avente permittività relativa e conducibilità s insiste un campo elettromgnetico di pulsazione ? , è lecito descrivere la relazione di proporzionalità fra il rotore del vettore intensità magnetica e il campo elettrico mediante una costante dielettrica complessa. In particolare la parte reale di tale parametro sarà ancora pari a , mentre la parte immaginaria sarà pari al rapporto tra la conducibilità e la pulsazione, cambiato di segno. Dal momento che tutti i materiali hanno una conducibilità finita, risulta evidente che ad alte frequenze la dispersione, cioè la dipendenza da parte di dalla frequenza, risulta trascurabile e la costante dielettrica diviene nuovamente reale.
Costante dielettrica 
La permittività elettrica (nel Sistema   Internazionale), o impropriamente costante dielettrica (nel   linguaggio comune), è una grandezza fisica che descrive come un campo elettrico influenza ed è influenzato da un mezzo dielettrico, ed è determinata dalla capacità di un   materiale di polarizzarsi in presenza del campo e quindi ridurre il campo   elettrico totale nel materiale. In breve quindi la permettività è la   predisposizione di un materiale a trasmettere (o permettere) un campo   elettrico. Essa compare nella legge di Coulomb e varia secondo il materiale   in cui sono immerse le cariche elettriche. La permittività elettrica è in genere un numero reale; risulta tuttavia molto   utile introdurre una permittività complessa quando si trattano campi   sinusoidali, cioè quando si lavora nel dominio della frequenza. In questo modo è   infatti possibile trattare le equazioni di Maxwell in forma differenziale con un   formalismo simile al caso del vuoto anche in mezzi dissipativi (cioè a   conducibilità finita ) o dispersivi ( cioè le cui proprietà elettromagnetiche   variano al variare della frequenza dei campi incidenti ). Questo accorgimento   non è invece possibile nel dominio del tempo. Va inoltre detto che la   permittività relativa stessa può, in particolari condizioni, essere   rappresentata mediante un numero complesso, in accordo con modelli di   polarizzazione macroscopici del primo ordine, i quali descrivono la   proporzionalità e lo sfasamento fra il vettore polarizzazione nel dielettrico e   il campo esterno forzante. La sua parte immaginaria, in particolare, segue un   andamento risonante: è cioè molto piccola alle basse e alle alte frequenze ma   presenta uno o più picchi a frequanze fissate, legate all'inerzia dei   costituenti atomici del materiale. In corrispondenza di questi picchi   l'assorbimento di energia da parte del dielettrico è massimo: esso così si   scalda. Un esempio pratico è dato, in tal senso, dal forno a microonde: tale   dispositivo infatti "cuoce" i cibi irradiandoli alla frequanza di risonanza   dell'acqua, che risponde dissipando energia e cioè scaldandosi. Per questo   stesso motivo inoltre, altri materiali, come la ceramica costituente il piatto,   non vengono scaldati se non perchè a contatto con cibi caldi: le loro frequanze   di assorbimento sono molto diverse da quelle utilizzate nel forno. In un dielettrico si manifestano delle cariche libere, di polarizzazione   − σp e +   σp. Il termine costante dielettrica  del dielettrico fornisce una quantificazione di tale polarizzazione.
 del dielettrico fornisce una quantificazione di tale polarizzazione.
Essa si misura in farad al metro nel SI  .
.
Nel vuoto prende il nome di permittività elettrica del vuoto e vale:
    
dove c è la velocità della luce nel vuoto e μ0 è la   permeabilità magnetica nel vuoto. Negli altri mezzi si indica con  ed è posta uguale a:
 ed è posta uguale a:
    
dove  viene chiamato permittività elettrica relativa (costante dielettrica   relativa) ed è un numero adimensionale sempre maggiore di 1. Poiché nella legge di Coulomb la permittività (costante   dielettrica) compare al denominatore, la forza che si esercita fra due cariche elettriche, in   valore assoluto, è massima nel vuoto e diminuisce al crescere della permittività   relativa. Ciò significa che minore è la costante dielettrica di un mezzo, più esso   presenterà caratteristiche isolanti, dato che, se si collocano due corpi di   carica opposta alle estremità di una barretta di materiale dielettrico (quindi   con costante dielettrica bassa) insorge un campo elettrico lungo la barretta,   dando così una forza (legge di Coulomb) alta; al contrario, se tra   le due cariche viene posto un materiale conduttore (quindi con costante   dielettrica alta), la carica fluisce attraverso di esso e il campo elettrico si   annulla dopo pochi istanti, dando così una forza (legge di Coulomb)   bassa. Occorre ricordare che i materiali isolanti vengono anche chiamati dielettrici. Nel caso dell'aria, la permettività elettrica è
 viene chiamato permittività elettrica relativa (costante dielettrica   relativa) ed è un numero adimensionale sempre maggiore di 1. Poiché nella legge di Coulomb la permittività (costante   dielettrica) compare al denominatore, la forza che si esercita fra due cariche elettriche, in   valore assoluto, è massima nel vuoto e diminuisce al crescere della permittività   relativa. Ciò significa che minore è la costante dielettrica di un mezzo, più esso   presenterà caratteristiche isolanti, dato che, se si collocano due corpi di   carica opposta alle estremità di una barretta di materiale dielettrico (quindi   con costante dielettrica bassa) insorge un campo elettrico lungo la barretta,   dando così una forza (legge di Coulomb) alta; al contrario, se tra   le due cariche viene posto un materiale conduttore (quindi con costante   dielettrica alta), la carica fluisce attraverso di esso e il campo elettrico si   annulla dopo pochi istanti, dando così una forza (legge di Coulomb)   bassa. Occorre ricordare che i materiali isolanti vengono anche chiamati dielettrici. Nel caso dell'aria, la permettività elettrica è  ,   approssimata ad 1 che è il valore assegnato alla costante dielettrica nel vuoto.   L'aria è l'unico mezzo fisico che viene assimilato allo spazio vuoto.Quando si lavora con campi sinusoidali nel dominio della frequenza, si può   introdurre una permittività elettrica complessa. Se in un mezzo reale, avente   permittività relativa
,   approssimata ad 1 che è il valore assegnato alla costante dielettrica nel vuoto.   L'aria è l'unico mezzo fisico che viene assimilato allo spazio vuoto.Quando si lavora con campi sinusoidali nel dominio della frequenza, si può   introdurre una permittività elettrica complessa. Se in un mezzo reale, avente   permittività relativa  e conducibilità σ insiste un campo elettromgnetico di   pulsazione ω , è lecito descrivere la relazione di   proporzionalità fra il rotore del vettore intensità magnetica e il campo   elettrico mediante una costante dielettrica complessa. In particolare la parte   reale di tale parametro sarà ancora pari a
 e conducibilità σ insiste un campo elettromgnetico di   pulsazione ω , è lecito descrivere la relazione di   proporzionalità fra il rotore del vettore intensità magnetica e il campo   elettrico mediante una costante dielettrica complessa. In particolare la parte   reale di tale parametro sarà ancora pari a  , mentre la parte immaginaria sarà pari al rapporto tra la conducibilità e la   pulsazione, cambiato di segno. Dal momento che tutti i materiali hanno una   conducibilità finita, risulta evidente che ad alte frequenze la dispersione,   cioè la dipendenza da parte di
 , mentre la parte immaginaria sarà pari al rapporto tra la conducibilità e la   pulsazione, cambiato di segno. Dal momento che tutti i materiali hanno una   conducibilità finita, risulta evidente che ad alte frequenze la dispersione,   cioè la dipendenza da parte di  dalla frequenza, risulta trascurabile e la costante dielettrica diviene   nuovamente reale.
 dalla frequenza, risulta trascurabile e la costante dielettrica diviene   nuovamente reale.
Coulomb  
E' l'unità di misura della carica elettrica, ed   è definita in termini di ampere: 1   coulomb è la quantità di carica elettrica trasportata da una corrente di 1   ampere che scorre per 1 secondo.
    
1 Coulomb è all'incirca 6,24×10exp18 volte la carica di un elettrone. Prende il nome da Charles Augustin de Coulomb (1736 - 1806), il primo scienziato a studiare qualitativamente le cariche e le forze che ne regolano il moto.
  Curie. 
  Il curie (simbolo Ci) è un'unità di misura dell'attività di un radionuclide. Esso venne adottato come unità di misura della radioattività durante il Congresso Internazionale di Radiologia che si tenne a Bruxelles nel 1910, presieduto proprio da Marie Curie. Un curie è pari approssimativamente all'attività di un grammo dell'isotopo radio-226 (226Ra), un materiale scoperto dai pionieri dello studio della radioattività Marie e Pierre Curie, da cui l'unità prende il nome, ed equivale a 37 miliardi di decadimenti al secondo.
Il curie è stato sostituito dal becquerel (Bq) nel sistema SI.
Equivalenze:
1 Ci = 3,7 × 1010 Bq = 37 GBq 
1 Bq = 2,7 × 10-11 Ci = 27 pCi .
   Curve di carico 
  Serie temporale dei consumi di energia elettrica del sito del cliente.
Clicca l'iniziale per trovare la parola cercata
A B C G H I J K L M N O P Q R S T U V W X Y Z
 
D E F  
Decreto Bersani 
  La liberalizzazione del mercato dell'energia elettrica si è realizzata in Italia per effetto del decreto legislativo   del 16 marzo 1999 n. 79, che ha recepito la direttiva n. 96/92/CE del 19 dicembre 1996,   concernente norme comuni per il mercato interno dell'energia elettrica. Noto   come decreto Bersani (da Pierluigi Bersani, all'epoca ministro   dell'Industria), il decreto legislativo n. 79/’99 ha stabilito che sono   completamente libere le attività di produzione, importazione, esportazione, acquisto e vendita di energia elettrica,   mentre le attività di trasmissione e dispacciamento sono riservate   allo Stato, che le attribuisce in concessione al Gestore della Rete di   Trasmissione Nazionale (GRTN). Per trasmissione si intende   l'attività di trasporto e trasformazione dell'energia elettrica sulla rete   interconnessa ad alta   tensione, mentre dispacciamento è l'attività diretta ad impartire   disposizioni per l'utilizzazione e l'esercizio coordinato degli impianti di   produzione, della rete di trasmissione e dei servizi ausiliari. Il GRTN provvede a connettere alla rete di trasmissione nazionale tutti i soggetti che   ne facciano richiesta, nel rispetto di determinate regole tecniche e di   condizioni tecnico-economiche di accesso e di interconnessione fissate   dall'Autorità per l'energia elettrica e il gas. Inoltre, il GRTN fornisce ai   soggetti responsabili di ogni altra rete dell'Unione Europea interconnessa con   la rete di trasmissione nazionale le informazioni necessarie per garantire il   funzionamento sicuro ed efficiente, lo sviluppo coordinato e l'interoperabilità   delle reti interconnesse. La distribuzione è il trasporto e la trasformazione di   energia elettrica su reti di distribuzione a media e bassa tensione per le consegne ai clienti   finali. L'attività di distribuzione viene svolta da imprese che operano sulla   base di concessioni rilasciate dallo Stato. L'attività di vendita dell'energia   elettrica è esercitata dai cosiddetti clienti grossisti, che acquistano e   vendono energia elettrica senza esercitare attività di produzione, trasmissione   e distribuzione. Il decreto Bersani individua la figura del cliente   idoneo come la persona fisica o giuridica che ha la capacità, di stipulare   contratti di fornitura con qualsiasi produttore, distributore o grossista sia in   Italia sia all'estero, in riferimento a soglie di consumo, inizialmente fissate   in 30 GWh/anno, poi ridotte a 20 (dal 1° gennaio 2000), a 9 (dal 1° gennaio   2002). A decorrere dal 1° luglio 2004 è cliente idoneo ogni cliente finale non   domestico. Dal 1° luglio 2007 sarà cliente  idoneo ogni cliente finale, realizzandosi così la liberalizzazione   completa del settore.
  Decreto Letta
  La liberalizzazione del mercato del gas si è   realizzata in Italia per effetto del decreto legislativo del 23 maggio 2000 n.   164, che ha recepito la direttiva n. 98/30/CE del 28 giugno 1998, relativa a   norme comuni per il mercato interno del gas naturale. Noto come decreto Letta   (da Enrico Letta,   all'epoca ministro dell'Industria), il decreto legislativo n. 164/2000 ha   stabilito che sono completamente libere le attività di importazione, trasporto e   dispacciamento, distribuzione e vendita di gas naturale. Dispacciamento è   l'attività diretta ad impartire disposizioni per l'utilizzazione e l'esercizio   coordinato degli impianti di coltivazione, di stoccaggio, della rete di   trasporto e di distribuzione e dei servizi accessori. Trasporto è il   vettoriamento di gas naturale attraverso la rete di gasdotti, esclusi quelli di   coltivazione e le reti di distribuzione. La distribuzione è il trasporto   di gas naturale attraverso reti di gasdotti locali per la consegna ai clienti,   mentre la fornitura è la consegna o la vendita di gas. L'attività di vendita è   incompatibile con quella di trasporto o distribuzione: anche nel caso del gas   viene individuata nel cliente grossista la persona fisica o giuridica che   acquista e vende gas. I clienti idonei erano stati individuati nelle   imprese produttrici di energia elettrica e in quelle che acquistano   il gas per la cogenerazione di energia elettrica e calore, indipendentemente dalla soglia di consumo. Per   le altre imprese era stata fissata una soglia di acquisto pari a 200.000 Smc/anno. A decorrere dal 1º   gennaio 2003 tutti i clienti sono idonei, per cui anche gli utenti domestici   possono scegliersi il fornitore che offre le condizioni più convenienti.
  Densità di corrente 
  E' la quantità di carica per unità di tempo che   attraversa l'unità di superficie (per una sezione trasversale): siano N il numero dei portatori di carica per m3 ognuno di essi di carica q che   si muovono entro il conduttore con velocità vd detta velocità di   deriva; allora la carica che fluisce nell'unità di tempo attraverso una   sezione A del conduttore è:
    
dove  è il versore normale alla superficie A. Si chiama allora vettore densità di corrente il vettore:
 è il versore normale alla superficie A. Si chiama allora vettore densità di corrente il vettore:
    
Questo è un vettore che ha la stessa direzione e lo stesso verso della   velocità di deriva dei portatori di carica che a sua volta ha direzione uguale e   concorde al campo elettrico se la carica q è positiva e discorde se   negativa. In ogni caso  è parallelo e concorde al campo elettrico
 è parallelo e concorde al campo elettrico  e si misura in
 e si misura in ![\left [ \frac {A}{m^2} \right ]](http://upload.wikimedia.org/math/0/9/6/096e2da1027d130f00ba68e5d642ae9b.png) .
.
La corrente elettrica I è definita come il flusso netto della densità di corrente attraverso una   superficie del conduttore:
    
La densità di corrente può essere dovuta sia a portatori positivi che   negativi e quindi in generale è definita come:
    
dove N + ed N − è il numero di portatori di cariche   per metrocubo rispettivamente di cariche q + e q − che   attraversano la stessa sezione di conduttore con velocità  e
 e  . È una grandezza vettoriale.
. È una grandezza vettoriale.
Devolatizzazione del carbone. 
La devolatilizzazione del carbone consiste sostanzialmente nella pirolisi di questo combustibile, nel corso della quale si formano tre classi di prodotti: i gas leggeri, il tar e il char. I gas leggeri sono i primi a liberarsi e trascinano con sé anche il tar, definito come una frazione dei prodotti di pirolisi
che si separa dalla rimanente frazione solida. Alla temperatura ambiente si presenterebbe in fase liquida ma, per via delle elevate temperature che si instaurano nella camera di combustione, si trova in fase vapore. Rimane il char, costituito da particelle sferoidali solide porose con un elevato contenuto di carbonio, quasi totalmente in forma aromatica o grafitica. Questo è l’ultimo prodotto a reagire nella combustione. 
Diagramma di potenza 
Limiti di funzionamento ammissibili di un generatore sincrono nel piano   cartesiano Potenza reattiva/Potenza attiva, definiti sulla base delle   temperature o delle sovratemperature ed, eventualmente, della stabilità statica.   Il diagramma è tracciato per il funzionamento a tensione e a frequenza nominali   e, per le macchine raffreddate con idrogeno, a pressione nominale di idrogeno.   Esso è tipicamente costituito dall'insieme di curve che definiscono il limite   per: 
  - riscaldamento dell'avvolgimento di eccitazione, 
- riscaldamento dell'avvolgimento statorico, 
- riscaldamento delle parti di estremità, 
- potenza meccanica del motore primo, 
- stabilità statica.
  Digestione anaerobica 
  Per digestione anaerobica si intende la degradazione di sostanza   organica da parte di microrganismi in condizioni di anaerobiosi. Si tratta di un   processo alternativo al compostaggio, che è al contrario strettamente aerobico. Convenzionalmente, in relazione al tipo di batteri utilizzati, esistono due differenti intervalli   di temperatura in cui viene   condotta la digestione anaerobica:
  - con batteri mesofili si   lavora a temperature comprese tra 20-45 °C, con un intervallo ottimale di   37°-41°C; 
- con batteri termofili le condizioni di esercizio ottimali   implicano un intervallo di temperatura compreso tra i 50°-52 °C, con temperature   che possono anche essere relativamente elevate e superare i 70 °C. 
Il tempo   di residenza in un digestore varia in funzione della quantità di materiale   da trattare, del tipo di materiale e dalla temperatura di esercizio. Altro   parametro particolarmente importante è il valore di pH. Nel caso della digestione condotta con batteri mesofili   il tempo di residenza è compreso tra i 15 e i 30 giorni. Nel caso della   digestione UASB con batteri mesofili, che   permette il trattamento delle acque reflue, i tempi di residenza differiscono in   relazione alla parte liquida e a quella solida, con i primi che rispettivamente   rientrano nell'arco di un giorno mentre i secondi non superano i 90 giorni. Nel   caso di un processo con batteri termofili le temperature più elevate permettono   di velocizzare la digestione, richiedendo solamente due settimane per giungere a   completamento. Di contro la digestione termofila ha un costo maggiore, richiede   più energia ed è più critica dell'analogo processo mesofilo. Quest'ultimo è   quindi quello attualmente più utilizzato. I digestori più comuni sono quelli continui: possiedono dispositivi meccanici   o idraulici atti a mescolare il materiale e a estrarne in continuazione gli   eccessi per mantenere un volume ragionevolmente costante, durante l'aggiunta   continua di materiale organico. L'altra tipologia di digestori è quella   discontinua batch, impiantisticamente più semplice ma   che ha lo svantaggio di emettere odori e di possedere cicli di svuotamento   problematici: una volta avvenuta l'alimentazione iniziale il reattore viene   chiuso e sull'intera massa trattata non agisce alcun dispositivo di sorta per   tutta la durata del processo. La digestione del materiale organico biodegradabile implica l'uso di molte   differenti specie di batteri occorrenti in natura, ognuna delle quali ha un   ruolo differente in una differente fase del processo di digestione. Lo stretto   controllo delle condizioni operative di un digestore è essenziale per assicurare   la crescita batterica e l'effettivo verificarsi del biochimismo necessario per   il buon fine della digestione stessa. La digestione anaerobica è suddivisibile in quattro stadi:
  - Idrolisi, dove le   molecole organiche subiscono scissione in composti più semplici quali i monosaccaridi, amminoacidi e acidi grassi. 
- Acidogenesi,   dove avviene l'ulteriore scissione in molecole ancora più semplici come gli   acidi grassi volatili (ad esempio acido acetico, propionico, butirrico e valerico),   con produzione di ammoniaca, anidride   carbonica e acido   solfidrico quali sottoprodotti. 
- Acetogenesi, dove   le molecole semplici prodotte nel precedente stadio sono ulteriormente digerite   producendo biossido di carbonio, idrogeno e principalmente acido acetico. 
- Metanogenesi, con   produzione di metano, biossido di   carbonio e acqua. 
La digestione anaerobica può essere effettuata sia a umido che a secco. La digestione a secco si riferisce a miscele di materiale con   contenuto minimo in solidi del 30%, mentre la digestione a umido si riferisce a   miscele con un minimo del 15% di contenuto in solidi. Uno dei sottoprodotti della digestione anaerobica èil biogas. Il biogas è una miscela gassosa composta prevalentemente da metano e   anidride carbonica, ma contenente anche una piccola quantità di idrogeno e   occasionalmente tracce di acido solfidrico. Il biogas può essere bruciato per   produrre elettricità,   solitamente tramite motore a scoppio o microturbina. Il gas è spesso utilizzato anche   per la cogenerazione,   generando elettricità e sfruttando il calore per riscaldare gli stessi digestori o effettuare   il teleriscaldamento. L'elettricità prodotta   dalla digestione anaerobica viene considerata una forma di energia verde. Dato   che il gas non viene rilasciato direttamente nell'atmosfera e l'anidride carbonica deriva da   fonte organica caratterizzata da breve ciclo del carbonio, il biogas con la sua   combustione non contribuisce all'aumento delle concentrazioni atmosferiche di   CO2 e grazie a ciò viene considerato una fonte energetica a basso   impatto ambientale. La produzione di biogas non avviene in modo costante,   durante il processo della digestione anaerobica; il livello massimo viene   raggiunto durante la fase centrale del processo. Nelle prime fasi della   digestione la produzione di biogas è minore, perché i batteri non si sono ancora   riprodotti abbastanza. Verso le fasi finali, resta solamente il materiali più   difficilmente digeribile, con una conseguente diminuzione della quantità di   biogas prodotto.
    Dispacciamento 
  E’ l’attività diretta ad impartire  disposizioni per l’utilizzazione e l’esercizio coordinati degli impianti di produzione, della rete di trasmissione e  dei servizi ausiliari ai fini dell’equilibrio tra immissioni e prelievi di energia elettrica dovuti alla  produzione e al consumo di potenza attiva e reattiva ad ogni istante.
    Dissipazione di  energia  
  Perdita di energia, in genere causata da  conversione in calore.
  Distorsione armonica di ordine n  
  Rapporto tra il valore efficace dell'armonica di ordine n di una grandezza   alternata ed il valore efficace della sua fondamentale. 
  Distributore 
  Il soggetto che svolge il servizio di distribuzione di energia elettrica sulla   base di concessioni rilasciate dal Ministero dell'Industria, del Commercio e   dell'Artigianato.
  Distribuzione 
  Il trasporto e la trasformazione di energia elettrica su reti di distribuzione   ad alta, media e bassa tensione per la consegna ai Clienti Finali.
  Dose equivalente (radioattività). 
  La dose equivalente è una grandezza fisica che misura gli effetti biologici e il danno provocato dall'assorbimento di radiazioni su un organismo o su un determinato organo o tessuto. Rispetto alla dose assorbita, che misura in assoluto una dose di energia assorbita da una unità di massa, la dose equivalente riflette piuttosto gli effetti biologici della radiazione sull'organismo. I diversi tipi di radiazione possono essere infatti più o meno dannosi per l'organismo. La dose equivalente H si ottiene moltiplicando la dose assorbita A per un fattore adimensionale di ponderazione wr che tiene conto della diversa pericolosità dei vari tipi di radiazione. Raggi X e gamma, vengono considerati come radiazione di riferimento e ad essi si associa per definizione il valore di wr = 1. Per raggi beta si ha ancora wr = 1. Mentre per i raggi alfa, più dannosi per l'organismo, wr = 20. Per i fasci di neutroni wr può equivalere da 3 a 11 a seconda dell'energia del fascio. La dose equivalente si misura in sievert (Sv). Un sievert a differenza di un gray (Gy) (unità di misura della dose assorbita), produce gli stessi effetti biologici indipendentemente dal tipo di radiazione considerata. Viene introdotta inoltre anche l'intensità di dose equivalente definita come la dose equivalente ricevuta nell'unità di tempo o tasso di dose. L'intensità di dose equivalente si misura in sievert al secondo (Sv/s). Infatti, per quanto il danno biologico sia direttamente legato alla dose equivalente, un organismo ha una certa facoltà di riparare nel tempo il danno biologico causato dalla radiazione.
   Ecologia. 
  L'ecologia (dal greco: oikos, casa o ambiente e logos, discorso o studio) è la disciplina che studia l'ecosfera, ossia la porzione della Terra in cui è presente la vita in aggregati sistemici detti "ecosistemi", le cui caratteristiche sono determinate dall'interazione degli organismi tra loro e con l’ambiente circostante o ancora porzioni dell'ecosfera stessa. In pratica l'ecologia si occupa di cinque livelli di complessità del vivente: le popolazioni, le comunità, gli ecosistemi, i paesaggi o biomi, l'ecosfera. Una porzione di biosfera delimitata naturalmente può contenere un ecosistema; i fattori ambientali che determinano un ecosistema sono solitamente classificati in fattori biotici, abiotici e limitanti; ecosistemi di livello inferiore possono essere contenuti in ecosistemi più ampi. Più ecosistemi, aggregandosi, formano un paesaggio e più paesaggi compongono l'ecosfera, massimo livello di aggregazione della materia vivente. Il termine ecologia fu coniato dal biologo tedesco Ernst Haeckel nel 1866. Egli la definì come “l’insieme di conoscenze che riguardano l'economia della natura; l’indagine del complesso delle relazioni di un animale con il suo contesto sia inorganico sia organico, comprendente soprattutto le sue relazioni positive e negative con gli animali e le piante con cui viene direttamente o indirettamente a contatto. In una parola, l’ecologia è lo studio di tutte quelle complesse relazioni alle quali Darwin fece riferimento come alle condizioni della lotta per l’esistenza”. La Teoria dei sistemi viventi è un elemento fondamentale dello studio ecologico. Un altro concetto importante è la Teoria della selezione naturale. È necessario puntualizzare la differenza tra il termine ecologia portato alla ribalta dal movimento ambientalista negli anni ‘60 e ’70, ed il corretto significato scientifico dell’ecologia, che fino ad allora era stata familiare solo a un gruppo ristretto di accademici e biologi. Per gli ambientalisti l’ecologia è la disciplina in grado di fornire una “guida” per le relazioni dell’uomo con il proprio ambiente e, con la diffusione del movimento, divenne un termine utilizzato quotidianamente e spesso impropriamente (p. esempio: ecologia = studio dell'inquinamento). Tale tendenza si manifesta ancora oggi, confondendo spesso erroneamente l’ecologia con l'ambiente, con la conservazione della natura o con altri concetti e studi simili. L’”ambientalismo” è attivismo con lo scopo di migliorare l’ambiente soprattutto attraverso attività educative pubbliche, propaganda di idee, programmi legislativi e convenzioni. L’”ambiente”, relativo ad uno specifico soggetto vivente (singolo o collettivo), è l'insieme delle condizioni e degli elementi del paesaggio circostante (in senso ecologico) con cui un organismo stabilisce una o più relazioni di varia importanza o tipo. La definizione di ecologia quindi è ben diversa da quella che la maggior parte della gente dà convenzionalmente al termine. Innanzitutto l’ecologia è una scienza, cioè un complesso organico di conoscenze. Usualmente viene definita come “lo studio scientifico delle relazioni tra gli organismi e l’ambiente”, considerando come: 
- Relazioni, sia le interazioni con il mondo fisico, sia quelle con tutte le altre specie e con la propria 
- Ambiente, sia il contesto delle componenti viventi, sia le condizioni fisiche relazionate con un organismo.
   Ecosistema. 
Un ecosistema è una porzione di biosfera delimitata naturalmente, cioè l'insieme di organismi animali e vegetali che interagiscono tra loro e con l'ambiente che li circonda.
Il termine "ecosistema" si deve all'ecologo inglese Arthur Tansley che lo formulò nel 1935. Ogni ecosistema è costituito da una comunità di organismi ed elementi non viventi con il quale si vengono a creare delle interazioni reciproche in equilibrio dinamico. Un ecosistema viene definito come un sistema aperto, con struttura e funzione caratteristica determinata da:
- Flusso di energia; 
- Circolazione di materia tra componente biotica e abiotica.
Gli ecosistemi presentano quattro caratteristiche comuni: 
- sono sistemi aperti; 
- sono strutture interconnesse con altri ecosistemi; 
- tendono a raggiungere e a mantenere nel tempo una certa stabilità; 
- sono sempre formati da una componente abiotica e da una componente biotica. 
La componente abiotica è costituita dagli elementi non viventi, dai composti organici e inorganici e da fattori climatici. La componente biotica è costituita da organismi animali e vegetali; si possono distinguere tre diverse categorie: i produttori primari, i consumatori, e i decompositori.
Nella quasi totalità degli ecosistemi terrestri il flusso di energia si origina dalla radiazione solare che, a differenza della materia, non è riciclabile, ma viene mandata in modo costante dal Sole. Una volta raggiunta la Terra solo una piccola parte di questa energia viene catturata ed utilizzata dagli organismi autotrofi fotosintetici per la trasformazione della sostanza inorganica in sostanza organica. La reazione chimica che permette di immagazzinare l'energia luminosa solare è la fotosintesi clorofilliana, che avviene nelle parti verdi delle piante acquatiche e terrestri, microscopiche come le alghe unicellulari o enormi come la sequoia. In questo modo si ottengono i tre tipi fondamentali di composti organici: carboidrati, grassi e proteine. 
Attraverso la catena alimentare, la materia organica viene poi utilizzata come fonte di energia dagli organismi eterotrofi, entrando così in circolo nell'ecosistema. La catena alimentare è una semplificazione del rapporto che esiste tra gli organismi viventi, e prende in esame uno solo dei possibili percorsi che la materia compie nell'ecosistema. È preferibile parlare di rete alimentare perché i rapporti tra i viventi sono estremamente complessi, specialmente negli ecosistemi evoluti, come il climax. In sintesi parte delle sostanze chimiche inorganiche presenti nel terreno (cioè acqua e sali minerali) e nell'aria (anidride carbonica), vengono trasformate in sostanze organiche, che costituiscono prima di tutto i tessuti degli organismi vegetali, le piante cioè, che sono il primo anello della catena alimentare, e vengono definite produttori.
I consumatori primari, cioè gli erbivori (insetti e animali superiori) se ne nutrono, e sfruttano l'energia chimica immagazzinata nelle sostanze organiche prodotte dai produttori. A loro volta questi consumatori primari sono preda dei consumatori secondari, cioè dei carnivori, predatori, (ad esempio grandi felini, rapaci, invertebrati predatori come ragni e scorpioni, pesci, e così via). A volte è difficile stabilire in modo preciso i vari rapporti che si formano tra prede e predatori, con i consumatori che possono essere primari, cioè di primo livello, secondari, cioè di secondo livello, e così via, sino ad arrivare ai predatori apicali, che di solito, in un ecosistema sono sempre poco numerosi. Tra i consumatori apicali o finali ci sono i grandi rapaci, come l'aquila, oppure, tra i mammiferi, il lupo, la volpe, o la tigre e il leone, a seconda dell'ambiente geografico. Quando produttori e consumatori muoiono e non vengono utilizzati da altri membri della catena, i decompositori (batteri, funghi) smontano le sostanze organiche in elementi e composti inorganici che concimeranno il terreno ed entreranno di nuovo nel ciclo. Un ecosistema è in equilibrio quando la catena del ciclo alimentare si chiude e quando le innumerevoli e multiformi relazioni fra gli organismi viventi (come il parassitismo, simbiosi, commensalismo) funzionano in modo da regolare il delicato meccanismo di un ecosistema all'interno dell'ecoregione. 
  Effetto fotovoltaico  
  L'effetto fotovoltaico si realizza quando un elettrone presente nella banda di valenza di un materiale (generalmente semiconduttore) passa alla banda di   conduzione a causa dell'assorbimento di un fotone sufficientemente energetico incidente sul   materiale. L'effetto fotovoltaico, osservato per la prima volta da Alexandre Edmond Becquerel nel 1839, costituisce una delle prove indirette   della natura corpuscolare delle onde   elettromagnetiche. La teoria fisica che spiega l'effetto   fotoelettrico, del quale l'effetto fotovoltaico ne rappresenta una   sottocategoria, fu pubblicata nel 1905 da Albert Einstein che per   questo ricevette il premio Nobel. Quando una radiazione elettromagnetica investe   un materiale può, in certe condizioni, cedere energia agli elettroni più esterni   degli atomi del materiale e, se questa è sufficiente, l'elettrone risulta libero   di allontanarsi dall'atomo di origine. L'assenza dell'elettrone viene chiamata   in questo caso lacuna. L'energia minima necessaria   all'elettrone per allontanarsi dall'atomo (passare quindi dalla banda di valenza   che corrisponde allo stato legato più esterno alla banda di conduzione ove non è   più legato) deve essere superiore alla banda proibita (band gap) del materiale. Questo fenomeno viene usualmente utilizzato nella produzione elettrica nelle   celle fotovoltaiche. Il meccanismo di   funzionamento si basa sull'utilizzo di materiali semiconduttori. Infatti, nel caso di materiali isolanti, il band gap risulta troppo   elevato per poter essere eguagliato dall'energia del fotone incidente, mentre   per i materiali conduttori l'energia del band gap è piccolissima, quindi a temperatura ambiente c'è una   continua creazione e distruzione di coppie elettrone-lacuna e l'energia   necessaria alla creazione viene fornita direttamente dalle fluttuazioni   termiche. Quando un flusso luminoso investe invece il reticolo cristallino di un semiconduttore, si   verifica la transizione in banda di conduzione di un certo numero di elettroni   al quale corrisponde un egual numero di lacune che passa in banda di valenza. Si   rendono pertanto disponibili portatori di carica, che possono essere   sfruttati per generare una corrente. Per realizzare ciò è necessario creare un   campo elettrico interno alla cella, stabilendo un eccesso di atomi caricati   negativamente (anioni) in una parte del   semiconduttore ed un eccesso di atomi caricati positivamente (cationi) nell’altro. Questo meccanismo si ottiene   mediante drogaggio del semiconduttore che generalmente viene realizzato   inserendo atomi del terzo gruppo come ad esempio il boro e del quinto gruppo (fosforo) per ottenere rispettivamente una struttura di   tipo p (con un eccesso di lacune) ed una di tipo n (con un eccesso di   elettroni). Lo strato drogato con elementi del quinto gruppo, che hanno cinque elettroni   esterni (o di valenza) contro i tre di quelli del terzo gruppo, presenta una   carica negativa debolmente legata, costituita da un elettrone in eccesso per   ogni atomo drogante. Nello stesso modo, nello strato drogato con elementi del   terzo gruppo, che hanno invece tre elettroni esterni, si ottiene un eccesso di   carica positiva, data dalle lacune degli atomi droganti. Il primo strato, a   carica negativa, viene generalmente chiamato strato n, l'altro, a carica   positiva, strato p, la zona di separazione è detta giunzione p-n. Va sottolineato che il materiale risulta essere globalmente neutro, dato che   il drogaggio viene realizzato con atomi neutri (non ioni), quello che cambia è   l'eccesso di elettroni nei legami covalenti, da una parte, e il difetto degli   stessi dall'altra. Mettendo a contatto i due materiali così ottenuti, si viene a   verificare un flusso di diffusione di elettroni dalla zona n alla zona p e di   lacune in direzione opposta, fino al raggiungimento dell'equilibrio   elettrostatico, che determina un eccesso di carica positiva nella zona n, un   eccesso di elettroni nella zona p e una regione intermedia detta regione di svuotamento (in inglese depletion region). Il risultato è un campo elettrico interno al   dispositivo (detto campo   elettrico di built-in) che si estende a cavallo della regione di   svuotamento, generalmente spessa pochi micrometri. A questo punto, se viene illuminata con fotoni la giunzione dalla parte n,   vengono a crearsi delle coppie elettrone-lacuna sia nella zona n che nella zona   p. Il campo elettrico di built-in permette di dividere gli elettroni in eccesso   (ottenuti dall’assorbimento dei fotoni da parte del materiale) dalle lacune, e   li spinge in direzioni opposte gli uni rispetto agli altri. Gli elettroni, una   volta oltrepassata la zona di svuotamento non possono quindi più tornare   indietro, perché il campo impedisce loro di invertire la marcia. Connettendo la   giunzione con un conduttore esterno, si otterrà un circuito chiuso nel quale il   flusso di elettroni parte dallo strato n, a potenziale maggiore, verso lo strato   p, a potenziale minore sintanto che la cella resta esposta alla luce. In figura è mostrato il circuito equivalente di una cella fotovoltaica. 

  Efficienza energetica 
  Rendimento energetico. La quantità di lavoro  eseguita o di profitto ottenuto per unità di risorsa energetica impiegata.
   Efficienza energetica (politica UE) 
  
   Ridurre il consumo di energia e prevenirne gli sprechi sono un obiettivo   prioritario dell'Unione europea (UE). Favorendo il miglioramento dell'efficienza   energetica, l'UE dà un contributo decisivo alla competitività, alla sicurezza   degli approvvigionamenti e al rispetto degli impegni assunti nel quadro del   protocollo di Kyoto sui cambiamenti climatici. Le possibilità di riduzione   esistenti sono notevoli, in particolare nei settori a elevato consumo di   energia, quali il settore dell'edilizia, delle industrie manifatturiere, della   conversione dell'energia e dei trasporti. Alla fine del 2006 l'UE si è   impegnata a ridurre del 20% il consumo annuo di energia primaria entro il 2020.   Per conseguire questo obiettivo, essa mobilita i cittadini, i responsabili   politici e gli operatori del mercato, e fissa, tra l'altro, norme minime di   rendimento energetico e regole in materia di etichettatura, applicabili ai   prodotti, ai servizi e alle infrastrutture. Comunicazione della Commissione, del 19 ottobre 2006, "Piano d'azione   per l'efficienza energetica: concretizzare le potenzialità" [COM(2006)   545].  Vedi anche articolo su efficienza energetica.
   Efficienza di conversione di un  dispositivo fotovoltaico (in %)
  Rapporto tra l’energia elettrica prodotta  e l’energia solare raccolta dal dispositivo fotovoltaico.
  Elettrodotto 
  Un elettrodotto è un sistema per la trasmissione di energia   elettrica. La costituzione degli elettrodotti è molto variabile in funzione della tensione operativa e se questa è in corrente continua o corrente   alternata. Gli elettrodotti per alta tensione sono costituiti da tralicci o piloni   metallici che mantengono sospesi i cavi conduttori ad una altezza sicura. Gli   elettrodotti per media tensione sono più semplici e molto più bassi. In alcuni   casi, per esempio per attraversare una zona abitata, si ha la necessità di   interrare le linee in speciali cavi ad alto isolamento, che però presentano   maggiori perdite di energia per gli effetti capacitivi tra il conduttore ed il   terreno. Altri elettrodotti speciali sono in cavi sottomarini per energia elettrica. Un generico elettrodotto è costituito dalle strutture di sostegno, i cavi conduttori e   gli elementi isolati
  Elettromagnetismo 
  E' la branca della fisica che studia i   fenomeni di natura elettrica e magnetica, tra cui i campi magnetici prodotti dalle correnti   elettriche, e le correnti elettriche prodotte dai campi magnetici variabili, il cui comportamento   classico è descritto dalle equazioni di Maxwell. Solitamente per   elettromagnetismo si intende la teoria classica, sintetizzata nelle equazioni di   Maxwell. Tale teoria descrive accuratamente la realtà fisica fino a   dimensioni quantistiche.
  Energia 
  Attitudine di un corpo o di un sistema di  corpi a compiere un lavoro. Il pianeta Terra può essere considerato come un  unico grande sistema energetico che riceve l'energia solare, mentre riflette  energia luminosa e irradia energia termica. Il flusso di energia rappresenta la  principale risorsa rinnovabile. All'interno del suddetto sistema hanno luogo  molte trasformazioni tra i diversi tipi di energia. Nel corso del tempo la Terra non acquista né perde  energia ma si trova in uno stato di equilibrio energetico o omeostasi. Nel  corso dei millenni l'uomo ha cercato di incanalare le fonti energetiche per  soddisfare le proprie esigenze. La principale fonte di energia, il Sole, non  può essere controllata. L'energia solare viene utilizzata nell'agricoltura, ma  come risorsa energetica "passiva" per stimolare la fotosintesi. Sono  state invece sviluppate molte altre forme di energia, la maggior parte delle  quali basate sulla combustione della legna, del carbone, del gas naturale o del  petrolio. Questi combustibili fossili sono risorse non rinnovabili e sono  attualmente in corso delle ricerche, seppure su scala limitata, per scoprire e  utilizzare fonti di energia alternativa.
   Energia cinetica 
L'energia cinetica è l'energia che un corpo possiede in virtù del suo   movimento. Tale concetto formalizza l'idea che un corpo in moto è in grado di   compiere lavoro in quanto esso è in moto. L'energia cinetica di un punto materiale può essere espressa   matematicamente dal semiprodotto della sua massa per il quadrato del modulo della sua velocità; in coordinate   cartesiane si esprime di consueto come:
 
 
L'energia cinetica di un corpo rigido in rotazione su un asse con velocità   angolare ω e che trasla nello spazio con velocità v è:
 
 
dove M è la massa totale del corpo ed I il momento d'inerzia rispetto all'asse di   rotazione.
L'energia cinetica dipende dal sistema inerziale di riferimento. In un   sistema di riferimento stazionario l'energia cinetica assume un valore inferiore   di quello assumibile in un sistema di riferimento in movimento. L'energia   cinetica aggiuntiva è quella corrispondente all'energia cinetica di traslazione   della massa m alla velocità v di spostamento del sistema inerziale   di riferimento. Una utile relazione tra l'energia cinetica Ek e il modulo   della quantità di   moto p è data dalle seguenti equazioni.
 
 
La dimostrazione è immediata sostituendo nell'espressione di Ek quella di p.
  Energia convenzionale 
  Energia prodotta utilizzando mezzi  tradizionali quali carbone, legna, gas, ecc. in contrapposizione ai tipi di  energia alternativa quali l'energia solare, da maree, eolica, ecc.
  Energia da biomasse 
  Energia recuperata da rifiuti di natura  organica tramite combustione. La quantità di energia recuperata dipende  principalmente dal potere calorifico dei materiali organici che vengono  bruciati, e secondariamente dall'efficienza dell'impianto di incenerimento. La  biomassa è la quarta fonte energetica del pianeta, il principale combustibile  utilizzato da tre quarti della popolazione mondiale. L'energia prodotta dalla  biomassa può essere sfruttata in vari modi. Il più evidente consiste  nell'utilizzare il calore prodotto dalla sua combustione -sia direttamente, sia  producendo vapore per generare elettricità. La biomassa può produrre energia in  un'unità di cogenerazione (produzione combinata di calore e di elettricità) ed  il calore "residuo" può essere immesso in una rete di  teleriscaldamento o in un processo industriale. è inoltre possibile ottenere  energia dalla biomassa tramite gassificazione e la produzione di combustibili liquidi.  La biomassa utilizzabile a scopo energetico comprende: gli scarti del legno  (silvicoltura, segherie, edilizia/industria); il legno delle essenze a crescita  rapida (salice, pioppo); i rifiuti agricoli (paglia, concimi); gli scarti delle  colture saccarifere (barbabietole, canne da zucchero), cerealicole (grano,  granoturco), non lignee (miscanthus) e oleaginose (colza, girasole); i rifiuti  urbani solidi; i rifiuti domestici e gli effluenti industriali (in particolare  del settore agroalimentare).
  Energia da maree 
  L'energia mareomotrice è quella ricavata dagli spostamenti d'acqua   causati dalle maree, che in alcune zone   del pianeta possono raggiungere anche i 20 metri di ampiezza verticale. Già nell’antichità si cercò di sfruttare questo tipo di energia, mediante la   costruzione di "mulini a marea". L’acqua veniva raccolta, durante il flusso, in   un piccolo bacino, che veniva in seguito chiuso con una paratia. Al momento del   deflusso l’acqua veniva convogliata attraverso un canale verso una ruota che   muoveva una macina. Oggi esistono diversi progetti di sfruttamento delle maree,   che comportano metodi diversi di sfruttamento dell’energia:
  - sollevamento di un peso in contrapposizione alla forza di gravità; 
- compressione dell’aria in opportuni cassoni   e movimentazione di turbine in seguito   alla sua espansione; 
- movimento di ruote a pale; 
- riempimento di bacini e successivo svuotamento con passaggio in turbine. 
Quest’ultimo sembra dare i migliori risultati, nell'effettivo impiego. Il   problema più importante allo sviluppo di tale tecnologia resta comunque lo   sfasamento tra massima ampiezza di marea disponibile (la cui cadenza è   prevedibile sulla base delle fasi lunari e solari) e domanda di energia nelle   ore di punta. Infatti nei giorni di insufficienza nell'afflusso d’acqua la   produzione di elettricità cesserebbe. In Francia nei pressi di Saint-Malo esiste un grosso impianto di questo   genere. Nella Bretagna, alla foce del   fiume Rance, fra   Saint-Malo e Dinard, tra il 1961 e il 1966 è stata costruita una centrale che sfrutta la marea   che da quelle parti raggiunge 13,5 m di dislivello. La portata raggiunge 18.000 metri cubi di acqua al secondo e la produzione   annua della centrale copre il 3 % del fabbisogno elettrico della Bretagna. La centrale comprende una diga in pietrame, 6 chiuse di entrata e uscita per   vuotare e riempire rapidamente la foce e 24 turbine a bulbo, sviluppate appositamente. 
    Energia dalle onde 
  Generazione di energia elettrica dall'energia  cinetica contenuta nelle onde oceaniche.L'energia del moto ondoso è una fonte di recente sperimentazione in vari   progetti europei di ricerca nel campo energetico. Vi sono varie tecniche di sfruttamento del moto ondoso. Un esempio noto è   quello delle turbine   Pelamis (sperimentate in Portogallo), costituite da strutture tubolari   galleggianti ancorate al fondo marino. All'interno delle strutture vi sono delle   turbine messe in moto dall'acqua che entra   ed esce dalle strutture al ritmo del moto ondoso in cui il generatore si trova.   Tali generatori generano energia con costanza, ma mostrano un ingombro non   indifferente. Un altro tipo di impianto è quello a colonna d'acqua oscillante,   anch'esso raccoglie l'acqua che entra grazie al moto ondoso per mettere in moto   una turbina. Un generatore di tipo differente in fase di sperimentazione consta in una   turbina (simile a quelle eoliche) sottomarina messa in moto dalle correnti   marine. In questo caso, non si tratta propriamente di energia dalle onde, ma   comunque da correnti che contribuiscono alla formazione delle onde stesse.
  Energia elettrica 
  Forma di energia determinata dalla posizione  di una carica elettrica in un campo elettrico. Dato un corpo dotato di una  carica Q e di un potenziale elettrico V, la sua energia elettrica è QV.
   Energia elettrica destinata ai pompaggi 
   Quella utilizzata per il sollevamento di acqua, a mezzo pompe, allo scopo di   essere utilizzata successivamente per la produzione di energia elettrica. 
  Energia eolica 
  Energia prodotta dai mulini a vento (per il  funzionamento di macchinari) e dalle eliche (per generare elettricità). Esempi  di macchine tradizionali attivati dall'energia eolica sono i mulini a vento e  le pompe azionate dal vento. I siti ideali per l'ubicazione di questi  generatori a vento sono le isole o le aree costiere, dove un vento prevalente,  praticamente costante rende possibile la generazione di elettricità.

  Capacità mondiale installata e previsioni 1997-2010, 
Energia geotermica 
  Energia ottenuta dal calore presente  nell'interno della Terra. Sono state identificate due fonti principali di  energia geotermica: 1) lo sfruttamento dell'acqua iuvenile calda e del vapore  nelle aree di attività vulcanica e tettonica; 2) in alcune zone del mondo dove  i giacimenti di rocce calde, aride, intrusive e ignee sono situati vicino alla  superficie, l'energia geotermica può essere sfruttata praticando dei fori nelle  rocce calde e iniettando dell'acqua per creare vapore che può quindi essere  utilizzato per generare elettricità. E' necessario controllare attentamente  l'emissione di gas tossici nocivi che vengono liberati dagli impianti  geotermici.
  Energia idrica 
  Energia ottenuta dalle cadute d'acqua naturali  o artificiali.
  Energia idroelettrica 
  Energia elettrica generata da un flusso di  acqua. Una cascata naturale fornisce energie sotto forma di acqua in movimento,  che può essere usata per azionare una turbina idraulica. Questa turbina può  essere accoppiata a un generatore per produrre energia elettrica.
   Energia libera di Gibbs  
  L'energia libera di Gibbs è una funzione di stato usata in termodinamica e termochimica per rappresentare   l'energia libera nelle   trasformazioni a temperatura e pressione costanti e in chimica per determinare se, ad una   temperatura nota, una reazione chimica avviene spontaneamente o   meno. Prende il nome dall'ingegnere, chimico e fisico statunitense Josiah Willard Gibbs.
L'energia libera di Gibbs  è definita come:
 è definita come:
    
dove  è l'entalpia,
 è l'entalpia,  la temperatura e
 la temperatura e  l'entropia. Il secondo principio della termodinamica, formulato attraverso la relazione   di Clausius, impone che:
 l'entropia. Il secondo principio della termodinamica, formulato attraverso la relazione   di Clausius, impone che:
    
dove:
  - ΔQ è il calore scambiato dal sistema 
- ΔS è la variazione di entropia 
- T la temperatura. 
L'equazione precedente si può riscrivere come:
    
con ΔH è la variazione di entalpia pari a ΔH =   ΔQ a pressione costante e in assenza di lavoro di   non-espansione/compressione. La relazione si semplifica introducendo l'energia libera di Gibbs:
    
che, a temperatura e pressione costanti, ha il seguente differenziale:
    
Quindi, a temperatura e pressione costanti, la diseguaglianza di partenza   viene così semplificata:
    
Questa relazione indica che nelle trasformazioni a temperatura e pressione   costanti l'energia libera di Gibbs diminuisce per un processo spontaneo   (differenziale negativo) mentre è ad un valore minimo (differenziale nullo) per   un processo reversibile, cioè in condizioni di equilibrio. Questo criterio è   molto importante, in quanto di solito le trasformazioni nell'ambiente naturale   ed in laboratorio avvengono a temperatura e pressione costante (piuttosto che a   volume costante): è per questo che la funzione di Gibbs è più utilizzata   rispetto a quella di Helmholtz. L'equazione di Gibbs-Helmholtz esprime la dipendenza dell'energia libera dalla temperatura. Alla definizione della grandezza si arriva applicando una trasformata   di Legendre rispetto all'entropia e al volume della "relazione fondamentale termodinamica in   forma energetica"  .   Si ha che:
.   Si ha che:
![G=L[U,S,V]=U-\frac{\partial{U}}{\partial{S}}S-\frac{\partial{U}}{\partial{V}}V=U-TS+PV](http://upload.wikimedia.org/math/0/3/0/030fc92be357ac8c70aeaf4e86998da3.png) 
e dato che l'entalpia H = U + PV si ha che
    
ed in particolare
    
 Energia nucleare 
  Energia generata da un reattore nucleare  principalmente attraverso la fissione nucleare o, in via sperimentale, per  mezzo della fusione nucleare. I problemi dello smaltimento delle scorie  nucleari, degli incidenti nucleari e dei possibili attacchi terroristici ai  reattori hanno spinto alcune nazioni a riconsiderare il proprio programma di  energia nucleare.
   Energia nucleare in Italia. Nascita dell' 
   Vedi articolo.
   Energia nucleare (Politica dell'UE) 
  
  Le centrali nucleari producono attualmente circa un terzo   dell’elettricità e il 15% dell’energia consumata nell’Unione europea (UE). Il   nucleare rappresenta una fonte di energia caratterizzata da basse emissioni di   carbonio e costi relativamente stabili; ciò lo rende interessante sotto il   profilo della sicurezza dell’approvvigionamento e della lotta ai cambiamenti   climatici. Spetta tuttavia ai singoli Stati membri decidere se intendono   ricorrere a questa fonte energetica. La Comunità europea dell’energia atomica   (Euratom) ha creato nel 1957 le condizioni per lo sviluppo dell’energia nucleare   in Europa. Le sue finalità comprendevano, segnatamente, lo sviluppo della   cooperazione nel settore della ricerca, la protezione delle popolazioni mediante   l’introduzione di norme di sicurezza armonizzate, l'approvvigionamento   sufficiente ed equo di minerali e combustibili nucleari, il controllo   dell'utilizzo delle materie nucleari per scopi pacifici, e la cooperazione con   altri paesi ed organizzazioni internazionali. In particolare, sono state   adottate misure specifiche a livello dell'UE intese ad assicurare la tutela   della salute delle persone che lavorano in questo settore e delle popolazioni   nonché a proteggere l'ambiente dai rischi collegati all'utilizzo del   combustibile nucleare ed ai rifiuti che ne derivano. Comunicazione della Commissione del 10 gennaio 2007 "Programma   indicativo per il settore nucleare presentato, per parere, al Comitato economico   e sociale europeo ai sensi dell'articolo 40 del trattato Euratom" [COM(2006)   844 definitivo - Gazzetta ufficiale C 138 del 22 giugno 2007].
    Energia oscura  
  
   Vedi articolo. 
    Energia potenziale  
  
   In fisica, l'energia potenziale di un oggetto è l'energia che esso possiede a causa della sua posizione o della sua orientazione rispetto ad un campo di forze. Nel caso si tratti di un sistema, l'energia potenziale può dipendere dalla disposizione degli elementi che lo compongono. Si può vedere l'energia potenziale anche come la capacità di un oggetto (o sistema) di trasformare la propria energia in un'altra forma di energia, come ad esempio IN energia cinetica. Il termine "energia potenziale" fu coniato da Rankine nel 1853. Nel sistema internazionale è misurata in joule (J). Si tratta di una funzione scalare delle coordinate dell'oggetto nel sistema di riferimento utilizzato. Dato un campo vettoriale conservativo, l'energia potenziale è la sua capacità di compiere lavoro: il lavoro relativo a una forza che agisce su un oggetto è l'integrale di linea di seconda specie della forza valutato sul cammino compiuto dall'oggetto, e se essa è conservativa il valore di questo integrale non dipende dal tipo di cammino seguito. Quando si ha a che fare con forze conservative si può definire un potenziale scalare, che talvolta viene fatto coincidere con l'energia potenziale, definito in tutto lo spazio. In particolare, dal punto di vista matematico tale potenziale esiste solo se la forza è conservativa, e del resto si assume che per tutte le forze conservative si può sempre definire fisicamente un'energia potenziale. L'energia potenziale può essere definita anche per il campo magnetico, che non è conservativo, in assenza di correnti elettriche. In tal caso, infatti, il rotore del campo è nullo. L'energia potenziale magnetica di un magnete in un campo magnetico è definita come il lavoro della forza magnetica (il momento meccanico) nel ri-allineare il momento di dipolo magnetico.
 
      Energia reattiva  
     In una bobina, la corrente è sfasata di 90 gradi o 5 millisecondi rispetto alla tensione: in altre parole, l’intensità è nulla quando la tensione è massima o minima. Viceversa, la tensione è nulla quando l’intensità è massima o minima. La potenza p, che è il prodotto dell’intensità e della tensione, passa da negativa e positiva e viceversa 100 volte al secondo. Quando la potenza è positiva la bobina immagazzina energia magnetica fornita dalla sorgente e quando la potenza è negativa restituisce la sua energia alla sorgente. Questa energia è quindi scambiata tra il generatore e il consumatore 100 volte al secondo, senza produrre nessun lavoro utile. Alla fine, la potenza media fornita da questo va e vieni è nulla. In un condensatore, si ha l’effetto inverso della bobina. La potenza può essere positiva o negativa. Quando la potenza è positiva il condensatore si carica di energia elettrostatica e
       quando la potenza è negativa si scarica nella sorgente. L’energia fornita e assorbita dalle bobine e dai condensatori è detta energia reattiva. Positiva, entra nella rete; negativa, è restituita al generatore, 100 volte al secondo. Questa scambio permanente, che non produce nessun lavoro utile, genera tuttavia degli inconvenienti nella rete, sotto forma di perdite supplementari, sovraccarico delle linee e variazioni di tensione. Tutti gli utilizzatori sono una combinazione di resistenze, bobine e condensatori o rappresentano almeno degli effetti simili, che gli specialisti chiamano rispettivamente effetti resistivi, induttivi e capacitivi. Consumano quindi potenza attiva e potenza reattiva. La rete, nei confronti delle macchine, è a sua volta un consumatore di energia attiva (resistenza dei conduttori che liberano calore) e di energia reattiva (per gli effetti induttivo e capacitivo dei conduttori). Anche le bobine dei trasformatori consumano una gran quantità di energia reattiva. Non si parla però di consumo, ma di perdite attive o reattive della rete. Questa energia è quindi inevitabile e può essere paragonata alla schiuma in un bicchiere di birra, che occupa spazio, ma non disseta. In linea di principio, solo l’energia attiva è misurata e fatturata
       agli utilizzatori in bassa tensione. In molti casi, si compensa l’energia reattiva fornendo, attraverso un condensatore locale, l’energia richiesta da una bobina in prossimità diretta, immediatamente restituita al condensatore nel semiperiodo seguente. Si riducono così gli scambi con i generatori distanti, alleggerendo le linee d’alimentazione. Da notare infine che anche gli utilizzatori che comportano apparecchi elettronici di potenza (tram, ferrovie di montagna, metropolitane, ecc.) sono grandi consumatori di energia reattiva da compensare con condensatori o altri dispositivi, perché sfasano artificialmente l’intensità e la tensione con comportamenti simili a quelli delle bobine. Nelle reti a corrente continua, invece, non entra in gioco nessuna energia reattiva, dato che la tensione e l’intensità sono costanti nel tempo.
  
   Energia solare  
  Per energia solare si intende l'energia, termica o elettrica, prodotta  sfruttando direttamente l'energia irraggiata dal Sole sulla Terra. Secondo il rapporto Solar Generation,  le potenzialità dell'energia fotovoltaica non sono state ancora ben comprese e sono  poco recepite. Dal sole, infatti, giunge sulla superficie terrestre un’energia  pari a 15.000 volte l’odierno fabbisogno energetico mondiale e l’Italia gode, grazie alla sua posizione  geografica, di condizioni assai favorevoli per lo sfruttamento dell’energia  solare, specialmente in Calabria e in Sicilia, dove l’irraggiamento giornaliero  medio supera i 5 kWh/mq (contro i 3,6 della Pianura Padana). La quantità di energia solare che arriva  sul suolo terrestre è enorme, ma è poco concentrata, nel senso che è necessario  raccogliere energia da aree molto vaste per averne quantità significative. Per  il suo sfruttamento, ai fini della produzione di energia elettrica, occorrono impianti  di costo elevato che rendono l'energia solare più costosa rispetto ad altri metodi.  Lo sviluppo di tecnologie che possano rendere economico l'uso dell'energia  solare è un settore della ricerca molto attivo ma che, per adesso, non ha dato risultati  rivoluzionari. Infatti i paesi che seguono una politica energetica rivolta alle  energie rinnovabili concedono agevolazioni e incentivi per favorire l’installazione  di impianti per la produzione di energia elettrica dall’energia solare.
  Tre sono le tecnologie principali per  trasformare in energia sfruttabile (termica o elettrica) l'energia del sole:
  - il pannello solare sfrutta l’irraggiamento       solare per scaldare un liquido contenuto nel suo interno; questo liquido       cede calore, tramite uno scambiatore di calore, all'acqua contenuta in un       serbatoio di accumulo (il costo dell’impianto è ripagato dal beneficio che       se ne ricava)
  - il pannello solare a       concentrazione sfrutta una serie di specchi parabolici a struttura lineare       per concentrare i raggi solari su un tubo ricevitore in cui scorre un fluido       termovettore o una serie di specchi piani che concentrano i raggi       all'estremità di una torre in cui è posta una caldaia riempita di sali che       per il calore fondono. In entrambi i casi "l'apparato ricevente"       si riscalda a temperature molto elevate (400°C ~ 600°C) 
  - il pannello fotovoltaico       sfrutta le proprietà di particolari elementi semiconduttori per produrre       energia elettrica quando sollecitati dalla luce. 
Energia termica  marina 
  L'impiego delle differenze di temperatura di 20°C o più che si riscontrano  tra la superficie del mare e le sue parti più profonde per la produzione  continua di energia; tale differenza di temperatura si può riscontrare nelle  regioni tropicali del mondo. Allo scopo di dimostrare tale principio sono state  costruite delle piccole centrali.
  Energie rinnovabili (Politica dell'UE)
  
  Le energie rinnovabili - energia eolica, solare   (termica e fotovoltaica), idraulica, mareomotrice, geotermica e da biomassa -   sono un’alternativa fondamentale ai combustibili fossili. Il loro impiego   permette di ridurre non soltanto le emissioni di gas a effetto serra provenienti   dalla produzione e dal consumo di energia, ma anche la dipendenza dell’Unione   europea (UE) dalle importazioni di combustibili fossili (in particolare gas e   petrolio). Per raggiungere l’biettivo di una quota del 20% di   energie rinnovabili nel proprio mix energetico, l’UE prevede di potenziare gli   sforzi nei settori dell’elettricità, del riscaldamento e del raffreddamento   nonché in quello dei biocarburanti. Nel settore dei trasporti, che dipende quasi   esclusivamente dal petrolio, la Commissione auspica che la quota minima per i   biocarburanti nel consumo totale  di carburante, fissata al 5,75% come obiettivo   specifico per il 2010,  per il 2020 sia portata al 10% . Comunicazione della Commissione, del 10 gennaio 2007, "Tabella di   marcia per le energie rinnovabili. Le energie rinnovabili nel 21° secolo:   costruire un futuro più sostenibile" [COM(2006)   848].
  EROEI  
  L'EROEI (o EROI), acronimo inglese che sta per Energy Returned On Energy   Invested (o Energy Return On Investment) ovvero energia ricavata   su energia consumata, è un coefficiente che riferito a una data fonte di energia ne   indica la sua convenienza in termini di resa energetica. Infatti   qualsiasi fonte di energia non arriva gratis (in termini di costo energetico   invece che monetario), ma è costata una certa quantità di energia investita da   considerarsi come congelata nella fonte di energia stessa, quantità che   l'EROEI cerca di valutare. Matematicamente è il rapporto tra l’energia ricavata e tutta l’energia spesa   per arrivare al suo ottenimento. Una fonte di energia è conveniente se presenta   un valore di EROEI maggiore di 1. Fonti energetiche che presentano un EROEI   minore di 1 non possono essere considerate fonti primarie di energia poiché per   il loro sfruttamento si spende più energia di quanta se ne ricavi. L'EROEI si   rivela un parametro fondamentale per valutare, comparare e operare scelte   strategiche di approvvigionamento fra le diverse fonti energetiche.
   Entalpia 
  L'entalpia, solitamente indicata con H, è una funzione di stato che consente di tenere traccia delle variazioni energetiche di un sistema termodinamico per le trasformazioni che avvengono   a pressione costante in cui si ha   solo lavoro di tipo   meccanico, poiché in queste condizioni la variazione di entalpia è numericamente   uguale al calore scambiato dal sistema   con l'ambiente esterno. L'entalpia si misura in joule (SI, Sistema   Internazionale) o in calorie.Il termine entalpia deriva dal greco enthálpein, riscaldare, composto dal   prefisso en, col significato di dentro, e dal termine thálpein, scaldare. Per un sistema   chiuso l'entalpia è definita come:
   
 
 
dove U è l'energia interna del sistema, p la sua pressione e V il suo volume. L'entalpia risulta pertanto una grandezza termodinamica   estensiva. Per le variabili estensive è possibile introdurre le corrispondenti grandezze specifiche, ovvero normalizzate rispetto alla massa del sistema, o più   correntemente (IUPAC) le corrispondenti grandezze molari Em normalizzate rispetto ad una mole della   sostanza considerata:
   ; ; ; ; 
 
   ; ; ; ; 
 
Con queste sostituzioni la definizione di entalpia diventa dunque:
   
 
Dall'espressione del primo principio della   termodinamica per un sistema chiuso in termini di entalpia, deriva   l'uguaglianza tra entalpia e calore per trasformazioni isobare (cioè a pressione   costante):
    
Derivando H nella forma
   
 
è possibile ricavare, dopo integrazione, il ΔH in funzione del   ΔU: per una reazione chimica, la variazione del prodotto della pressione   per il volume, in accordo con l'equazione di stato dei gas perfetti, risulta   facilmente determinabile. Questa relazione risulta utile quando si lavori con il calorimetro: in questo caso la   reazione è condotta a volume costante e viene determinata la variazione di   energia interna ΔU. Da notare che per reazioni in fase condensata   praticamente ΔH = ΔU, essendo la variazione di moli gassose eguale a zero, tuttavia in generale vale la   diseguaglianza ΔH > ΔU (per temperature lontane dallo zero assoluto).
   
 (equazione   valida per i gas ideali)
L'equazione di Kirchhoff permette di   calcolare la variazione di entalpia tenendo conto della sua dipendenza dalla   temperatura. L'entalpia di un gas perfetto è funzione della sola temperatura   assoluta. Il diagramma T-s ed h-s non vengono   utilizzati insieme per descrivere una trasformazione oppure un ciclo di   trasformazioni, in quanto il diagramma entalpia-entropia è identico al diagramma T-s, semplicemente traslato e riscalato.
    Entropia 
  In termodinamica l'entropia è una funzione di stato che si introduce insieme al secondo principio della   termodinamica e che viene interpretata come una misura del disordine di un sistema fisico o più   in generale dell'universo. In base a   questa definizione si può dire, in forma non rigorosa ma esplicativa, che quando   un sistema passa da uno stato ordinato ad uno disordinato la sua entropia aumenta. Nel Sistema Internazionale si misura in joule su kelvin (J/K). Il concetto di entropia venne introdotto agli inizi del XIX secolo, nell'ambito della termodinamica, per   descrivere una caratteristica (la cui estrema generalità venne osservata per la   prima volta da  Carnot nel 1824) di tutti i sistemi allora   conosciuti nei quali si osservava che le trasformazioni avvenivano   invariabilmente in una direzione sola, ovvero quella verso il maggior   disordine. In particolare la parola entropia venne introdotta per la prima volta   da Rudolf Clausius. In tedesco, Entropie, deriva dal greco εν, "dentro", e da τροπή, "cambiamento", "punto di svolta",   "rivolgimento" (sul modello di Energie, "energia"): per Clausius indicava quindi dove va a   finire l'energia fornita ad un sistema. Propriamente Clausius intendeva   riferirsi al legame tra movimento interno (al corpo o sistema) ed energia   interna o calore, legame che esplicitava la grande intuizione del secolo dei Lumi, che in qualche   modo il calore dovesse riferirsi al movimento di particelle meccaniche interne   al corpo. Egli infatti la definiva come il rapporto tra la somma dei piccoli   incrementi (infinitesimi) di calore, divisa per la temperatura assoluta durante   l'assorbimento del calore. Per chiarire maggiormente il concetto di entropia possiamo presentare alcuni   esempi:
  - Si pensi di far cadere una gocciolina d'inchiostro in un bicchiere d'acqua: quello che si osserva immediatamente è   che, invece di restare una goccia più o meno separata dal resto dell'ambiente   (che sarebbe uno stato completamente ordinato), l'inchiostro inizia a diffondere e, in un certo tempo, si   ottiene una miscela uniforme (stato completamente disordinato). È esperienza   comune che, mentre questo processo avviene spontaneamente, il processo inverso   (separare l'acqua e l'inchiostro) richiederebbe energia esterna. 
  - Immaginiamo un profumo contenuto in una boccetta colma come un insieme di molecole puntiformi dotate di una certa velocità derivante dalla temperatura del profumo. Fino a   quando la boccetta è tappata, ossia isolata dal resto dell'universo, le molecole   saranno costrette a rimanere all'interno e non avendo spazio (la boccetta è   colma) rimarranno abbastanza ordinate (stato liquido). Nel momento   in cui la boccetta viene stappata le molecole della superficie del liquido   inizieranno a staccarsi dalle altre ed urtando casualmente tra di loro e contro   le pareti della boccetta usciranno da questa disperdendosi all'esterno (evaporazione). Dopo un certo   tempo tutte le molecole saranno uscite disperdendosi. Anche se casualmente   qualche molecola rientrerà nella boccetta, il sistema complessivo è ormai   disordinato e l'energia   termica che ha messo in moto il fenomeno è dispersa e quindi non più   recuperabile (si ha un equilibrio dinamico). 
Il concetto di entropia ha conosciuto grandissima popolarità nell'800 e nel '900, grazie proprio alla grande quantità di fenomeni   che aiuta a descrivere, fino ad uscire dall'ambito prettamente fisico ed essere   adottato anche dalle scienze sociali, nella teoria dei segnali e nell'informatica   teorica. È tuttavia bene notare che esiste tutta una classe di fenomeni,   detti fenomeni non lineari (ad esempio i fenomeni caotici) per i quali le   leggi della termodinamica (e quindi anche l'entropia) devono essere   profondamente riviste e non hanno più validità generale. La variazione della funzione di stato entropia S venne introdotta nel 1864 da Rudolf Clausius nell'ambito della termodinamica come
    
dove Qrev è   la quantità di calore assorbito o ceduto   in maniera reversibile e isoterma dal sistema a temperatura T. In forma differenziale, la legge si presenta così:
    
È importante notare come, mentre δQrev non è un differenziale   esatto, dividerlo per la temperatura T lo rende tale:  è dunque il fattore d'integrazione. Occorre   sottolineare che dS è un differenziale esatto solo se è valido il secondo principio della   termodinamica. In una delle sue diverse formulazioni, il secondo principio della   termodinamica afferma che in un sistema isolato l'entropia può solo aumentare,   o al limite rimanere costante per trasformazioni termodinamiche   reversibili
 è dunque il fattore d'integrazione. Occorre   sottolineare che dS è un differenziale esatto solo se è valido il secondo principio della   termodinamica. In una delle sue diverse formulazioni, il secondo principio della   termodinamica afferma che in un sistema isolato l'entropia può solo aumentare,   o al limite rimanere costante per trasformazioni termodinamiche   reversibili
 Eolico: un comune virtuoso. 
  Il comune di Tula e il suo parco eolico. 
    Fascia  oraria 
  Nel caso delle forniture a grandi utenze allacciate in alta o media tensione, è   possibile accedere ad un sistema, definito multiorario, che prevede tariffe di   acquisto diverse a seconda della fascia oraria del giorno: per le ore di punta   (F1), ore di alto carico (F2), ore di medio carico (F3) e ore vuote (F4). La   suddivisione nell'arco giornaliero e settimanale di tali fasce è differente per   le forniture in media tensione da quelle per tensione superiore. Anche per le utenze domestiche è stata inserita la fascia bioraria. 
     Equilibrio dinamico in ecologia 
 In ecologia l'equilibrio dinamico si basa sul principio della continua trasformazione ed adattamento ad un ecosistema in continua evoluzione quindi in questo caso non si considera mai un sistema chiuso o adiabatico che non esiste in natura e nell'universo ma un sistema sempre aperto dove si ha sempre un certo grado di entropia. L'equilibrio dinamico è quindi la tendenza a trovare il miglior utilizzo possibile delle energie e/o informazione con i minori cambiamenti possibili dei parametri presi in considerazione e più sono lenti questi cambiamenti e più ci si avvicina a l'equilibrio dinamico perfetto che non può esistere in quanto contro natura. 
  Fasore 
  In fisica, teoria dei   circuiti ed elettrotecnica il fasore è un numero complesso (pertanto è rappresentabile come vettore del diagramma di Argand) equivalente ad una funzione sinusoidale di pulsazione ben   definita. I fasori sono utilizzati quale comoda rappresentazione di grandezze   fisiche oscillanti come, in particolare, le grandezze elettriche, tensione o corrente.
  Film sottile 
  È il prodotto della tecnologia che sfrutta  la deposizione di un sottilissimo strato di materiali semiconduttori per la realizzazione della cella  fotovoltaica.
  Fissione nucleare 
  La fissione nucleare è una reazione nucleare in cui il nucleo di uranio 235, plutonio 239 o di altri elementi pesanti adatti   vengono divisi tramite il bombardamento con neutroni o altre particelle elementari in frammenti in   un processo che libera energia. È la reazione nucleare comunemente utilizzata   nei reattori   nucleari e nei tipi più semplici di bombe atomiche, quali le bombe all'uranio (come quella di Hiroshima) o al plutonio (come quella che colpì Nagasaki). Tutte le bombe a fissione nucleare vengono   militarmente etichettate come Bombe A. Nella fissione nucleare, quando un nucleo di materiale fissile (se   produce fissione con neutroni di qualsiasi energia cinetica) o fissionabile (se   la fissione è possibile solo con neutroni di elevata energia cinetica, detti   veloci) assorbe un neutrone si fissiona producendo due o più nuclei più piccoli   e un numero variabile di nuovi neutroni. Gli isotopi prodotti da tale reazione   sono radioattivi in quanto posseggono un eccesso di neutroni e decadono beta in una catena di   decadimenti radioattivi fino ad arrivare ad una configurazione stabile. Inoltre   nella fissione vengono prodotti normalmente 2 o 3 neutroni veloci liberi.   L'energia complessivamente liberata dalla fissione di 1 nucleo di   235U è di 211 MeV, una quantità elevatissima data dalla   formula

dove la prima massa è la massa del nucleo di U 235e del neutrone   incidente mentre la seconda massa è la somma delle masse dei nuclei e dei   neutroni prodotti, mentre c è la costante che rappresenta la velocità   della luce nel vuoto (299.792.458 m/s). Perciò in questo fenomeno parte della   massa iniziale scompare e si trasforma in energia sotto forme diverse, la   maggior parte (circa 167 MeV) in energia cinetica, ovvero in moto dei frammenti   pesanti prodotti della reazione. Circa 11 MeV sono trasportati via dai neutrini emessi al   momento della fissione e quindi l'energia effettivamente sfruttabile come   energia termica è di circa 200 MeV per ogni fissione. In un comune processo di   combustione, l'ossidazione di un atomo di carbonio fornisce un'energia di circa   4 eV, un'energia che è meno   di cinquanta milionesimi di quella prodotta nella reazione nucleare di   fissione. I nuovi neutroni prodotti possono venire assorbiti dai nuclei degli atomi   di uranio 235 vicini, se ciò avviene possono produrre una nuova fissione del   nucleo. Se il numero di neutroni che danno luogo a nuove fissioni è maggiore di   1 si ha una reazione   a catena in cui il numero di fissioni aumentano esponenzialmente, se tale   numero è uguale a 1 si ha una reazione stabile in tal caso si parla di massa   critica. La massa critica è dunque quella concentrazione e disposizione di   atomi con nuclei fissili per cui la reazione a catena si mantiene stabile e il   numero di neutroni presente nel sistema non varia. Se si varia tale disposizione   allora il numero di neutroni assorbiti può scendere e si ha che la reazione si   spegne oppure aumentare e si ha che la reazione cresce esponenzialmente. Per cui   scrivendo:

se la disposizione è tale che si abbia K>1 allora il numero di neutroni   aumenta, se K<1 diminuisce, mentre se K=1 il numero di neutroni resta stabile   e si parla di massa critica. La quantità K viene definita in fisica del   reattore come il fattore   di moltiplicazione effettivo e è fondamentale nel controllo del reattore   stesso. La fissione nucleare è il procedimento su cui si basano i reattori nucleari a   fissione e le bombe atomiche (o, meglio, nucleari). Se per i reattori nucleari   il valore di K non deve superare mai il valore di 1 se non di una quantità   bassissima (come quando si aumenta la potenza del reattore e allora si può   arrivare a K=1.005) per le armi nucleari si deve avere che il valore di K   sia il più alto possibile e in tal caso si può arrivare a K=1.2. L'uranio si trova in natura come miscela di due isotopi: 238   e 235 in rapporto di 150 a 1, dunque l'uranio 235 è solo lo 0.7% del   totale dell'uranio, e solo quest'ultimo è fissile. Il processo di arricchimento consiste nell' aumentare la percentuale in massa di uranio 235 a   scapito del 238 in modo da riuscire ad avere un numero di nuclei   fissili sufficiente per far funzionare il reattore, in tal caso l'arricchimento   varia dal 3% al 5% o per costruire una bomba atomica, in tal caso   l'arricchimento arriva fino al 90%. In una reazione, la presenza di impurità e   di atomi di uranio 238 e, nei reattori, di apposite barre che hanno lo   scopo di controllare la reazione a catena fanno sì che solo parte dei neutroni   emessi venga assorbita dai nuclei del materiale fissile.
   
  
      
      Schema di una   reazione nucleare.
      1) Un nucleo di uranio 235 assorbe un neutrone e avviene   la fissione che spezza il nucleo in due frammenti e libera tre neutroni e   dell'energia.
      2) Uno di questi neutroni è assorbito da un altro nucleo di   uranio 238 ed è perso nel bilancio. Un secondo neutrone può "fuggire" dal   sistema o essere assorbito da un elemento che non continua la reazione. Il terzo   neutrone viene assorbito da un nucleo di uranio 235 che si spezza in due   frammenti liberando due neutroni e dell'energia.
      3) I due neutroni liberati   si scontrano con due nuclei di uranio 235 e ogni nucleo libera da uno a tre   neutroni che servono per continuare la reazione a catena
 
 
Flicker (sfarfallio) 
  Impressione soggettiva della fluttuazione della luminanza di lampade ad   incandescenza o fluorescenti dovuta a fluttuazioni della tensione di   alimentazione. 
    Flusso di corrente 
  Nei conduttori metallici, come i cavi elettrici, la corrente è causata da un   flusso di elettroni (particelle a carica negativa), ma non è così nella maggior   parte dei conduttori non metallici. La corrente elettrica negli elettroliti è   data dal flusso di atomi e/o molecole elettricamente cariche (ioni), che possono essere sia negativi che positivi. A   esempio, una cella elettrochimica può essere costruita con acqua salata (una   soluzione di cloruro   di sodio) su un lato della membrana, e acqua pura dall'altra parte. La   membrana fa passare gli ioni di sodio con   carica positiva, ma non quelli di cloro con carica negativa, il risultato netto è una corrente. Le correnti elettriche   nel plasma, sono flussi di elettroni, così come di   ioni positivi e negativi. Nell'acqua ghiacciata e in alcuni solidi   elettrolitici, la corrente è costituita da un flusso di protoni. Esistono anche casi in cui gli elettroni sono la carica che si muove, ma dove   ha più senso pensare alla corrente come ai "buchi" positivi (gli spazi che   dovrebbe avere un elettrone per rendere il conduttore neutro e vengono   chiamati lacune)   come quelli in movimento. Questo è il caso dei semiconduttori tipo-p. Sia che si tratti di un flusso di elettroni (quindi di cariche negative) o di   ioni (cariche negative o positive) per convenzione la corrente è rappresentata   come un flusso di cariche positive. Questa convenzione si deve a Benjamin   Franklin. La corrente, comunque, è una grandezza   vettoriale perché ha un verso e una direzione oltre che un'intensità
   Fonti assimilate 
  
Risorse energetiche di origine fossile che, ai sensi della   legge n. 10 del 9-1-91, vengono “assimilate” alle fonti   rinnovabili in virtù degli elevati rendimenti energetici. Secondo il   provvedimento CIP 6, sono considerati impianti   alimentati da fonti assimilate gli impianti di cogenerazione, gli impianti che utilizzano calore di   recupero, fumi di scarico e altre forme di energia recuperabile in processi   produttivi e in impianti, nonché gli impianti che utilizzano gli scarti di   lavorazione e/o di processi e quelli che utilizzano fonti fossili prodotte   esclusivamente da giacimenti minori isolati. 
  Fonti convenzionali 
  Sono considerati impianti alimentati da fonti convenzionali quelli per la sola   produzione di energia elettrica che utilizzano combustibili fossili   commerciali.
  Fonti di energia 
  Riserve potenziali di energia comprendenti sia  i combustibili fossili che nucleari, l'energia solare, idrica, eolica,  geotermica e da maree.
  Fonti di energia non  inquinante 
  Energia rinnovabile e sicura dal punto di  vista ambientale. La fonte più largamente impiegata è l'energia idroelettrica  che attualmente fornisce circa il 6,6% del fabbisogno energetico mondiale.  Altre fonti non inquinanti di energia sono l'energia solare, l'energia da  maree, da onde ed eolica. La maggior parte delle fonti di energia non  inquinante necessitano di un elevato capitale iniziale di investimento ma hanno  bassi costi di gestione.
  Fonti di energia  rinnovabile 
  Fonti di energia che non dipendono da  combustibili le cui riserve sono limitate. La fonte rinnovabile più sfruttata è  l'energia idroelettrica; altre fonti rinnovabili sono l'energia da biomassa,  l'energia solare, l'energia da maree, l'energia dalle onde e l'energia eolica;  l'energia da biomassa non esclude il pericolo dell'effetto serra.
  Fonti primarie 
  I combustibili fossili, le fonti rinnovabili, il combustibile nucleare.
  Fracking (Hydraulic) 
  Vedi articolo.
  Fusione nucleare 
  La fusione è il processo nucleare che alimenta il Sole e le altre stelle, consistente nell'unione dei nuclei di due atomi leggeri, isotopi dell'idrogeno, deuterio e trizio, in uno più pesante. In questo tipo di reazione   il nuovo nucleo costituito ed il neutrone liberato hanno una massa totale minore   della somma delle masse dei reagenti con conseguente liberazione di un'elevata   quantità di energia che conferisce al   processo caratteristiche fortemente esotermiche. Affinché avvenga una fusione tra due nuclei, questi devono essere   sufficientemente vicini in modo da permettere che la forza nucleare   forte predomini sulla repulsione coulombiana (i due nuclei hanno carica   elettrica positiva e quindi si respingono): ciò avviene a distanze molto   piccole, dell'ordine di qualche femtometro (10exp15 metri). L'energia   necessaria per superare la repulsione coulombiana può essere fornita ai nuclei   portandoli in condizioni di altissima pressione (altissima temperatura e/o altissima densità). La fusione nucleare, nei processi terrestri, è usata in forma incontrollata   per le bombe a   idrogeno e, in forma controllata, nei reattori a fusione   termonucleare, ancora in fase sperimentale. L'energia   potenziale totale di un nucleo è notevolmente superiore all'energia che, ad   esempio, lega gli elettroni al   nucleo. Pertanto l'energia rilasciata   nella maggior parte delle reazioni nucleari è notevolmente maggiore di quella   delle reazioni   chimiche. Ad esempio l'energia di legame dell'elettrone al nucleo di   idrogeno è di 13,6 eV mentre   l'energia che viene rilasciata dalla reazione deuterio-trizio è pari a   17,5 MeV, cioè più di un milione di volte superiore. Con un grammo di deuterio e trizio si potrebbe quindi produrre tanta energia quanta   con 11 tonnellate di carbone. Le tipologie di atomi interessati dal processo di fusione nucleare, in natura   e in ingegneria, sono gli isotopi dell'atomo di idrogeno, caratterizzati da minimo numero atomico a   cui corrisponde la minima energia di innesco. Tuttavia all'interno delle stelle   più grandi è possibile anche la fusione di elementi più pesanti, si ritiene fino   all'ossigeno. La fusione nucleare se controllata potrebbe risolvere la maggior parte dei   problemi energetici sulla terra, perché potrebbe produrre quantità pressoché   illimitate di energia senza praticamente emissioni di gas nocivi o gas serra, e senza la produzione di scorie radioattive ad esclusione del trizio   e di polveri radioattive. La piccola quantità di radioattività residua   interesserebbe solo alcuni componenti del reattore a fusione, peraltro   facilmente rimpiazzabili; i tempi di   dimezzamento della radioattività residua sarebbero però confrontabili con la   vita media della centrale (decine d'anni). La quantità di deuterio e trizio   ricavabile da tre bicchieri di acqua di mare e due sassi di medie dimensioni   potrebbe supplire al consumo medio di energia di una famiglia di 4 persone.   Purtroppo oggi non siamo ancora in grado di sfruttare la fusione nucleare per   produrre energia in modo commerciale.
Clicca l'iniziale per trovare la parola cercata
A B C  
D E F 
L M N O 
P Q R 
S T U V W X Y Z 
G  H  I  J  K 
 
Gas 
 Il gas naturale è un combustibile fossile di origine organica, costituito in   massima parte da metano (CH4). Le riserve accertate sono   distribuite in poche aree geografiche, in particolare nei Paesi ex URSS e   dell’Europa orientale (per oltre il 38%) e nei Paesi mediorientali (per oltre il   30%). In natura si trova in giacimenti sotterranei o sottomarini, spesso   associato al petrolio. La sua estrazione richiede, pertanto, un’attività di   perforazione, effettuata con speciali trivelle in grado di scendere a profondità   a volte davvero rilevanti. Dai luoghi di produzione, che sono per lo più molto   lontani da quelli di consumo, il gas naturale viaggia per mezzo di metanodotti,   cioè attraverso condutture fisse che possono estendersi per migliaia di   chilometri. Si tratta di una delle fonti energetiche più importanti,   condividendo insieme ai prodotti petroliferi varie possibilità di impiego. Viene   largamente adoperato, infatti, come combustibile per la generazione di energia   elettrica, ma anche direttamente per il riscaldamento di ambienti o come   carburante nell’autotrazione . Attualmente, poco meno del 25% della domanda   di energia primaria mondiale  è   soddisfatta dal gas naturale, che, a giudizio degli esperti, è anche la fonte di   energia primaria destinata ad avere la crescita maggiore nei prossimi decenni.   Si prevede, al riguardo, che nel 2025 i consumi di gas raggiungano la quota di   circa 5 trilioni di metri cubi (pari al 28% del consumo energetico mondiale),   raddoppiando in tal modo le quantità consumate nel 2001. Questo potrà rendere   problematico in futuro l’approvvigionamento sia per la scarsità delle riserve   accertate sia per la loro concentrazione in aree poco stabili del   pianeta. Attualmente in Italia il gas copre quasi un terzo del fabbisogno   energetico. Il nostro Paese   dispone di risorse di gas naturale che hanno svolto una funzione importante nei   decenni passati. L’attuale produzione nazionale è tuttavia complessivamente   modesta rispetto ad una domanda che è in costante aumento, per cui   dipendiamo dall’estero per gran parte dei nostri consumi.
Gassificatore 
Per gassificatore (da non confondersi con rigassificatore, che è tutt'altro) si intende   un impianto che a partire da vari materiali (fra cui determinati tipi di rifiuti) ricava combustibili gassosi   impiegabili per la produzione di energia. Sono proposti come una alternativa   agli inceneritori. I gassificatori sfruttano la dissociazione molecolare, definita pirolisi, usata per convertire   direttamente i materiali organici in gas, appunto, mediante riscaldamento in   presenza di ridotte quantità di ossigeno: essi sono completamente distrutti   scindendone le molecole, generalmente lunghe catene carboniose, in molecole più   semplici di monossido di carbonio, idrogeno e metano, che formano un "gas di sintesi" (syngas), costituito in gran parte da metano e anidride   carbonica e a volte abbastanza puro da essere usato tal quale. A differenza   dei pirolizzatori, i quali attuano la pirolisi in senso stretto, ovvero in   totale assenza di ossigeno, i   gassificatori operando invece in presenza di piccole quantità di tale elemento   producono anche una ossidazione parziale; in relazione al tipo di   processo utilizzato, i gassificatori possono considerarsi come una tecnologia   intermedia tra l'incenerimento e la pirolisi propriamente detta. Le applicazioni   più diffuse e collaudate riguardano specifiche tipologie di rifiuti, quali ad   esempio scarti di cartiera, pneumatici, plastiche, biomasse (scarti vegetali,   legno, sansa di olive ecc). Alcuni produttori di impianti affermano di poter trattare anche rifiuti   urbani indifferenziati senza alcun genere di pretrattamento. Se si trattano biomasse, l'energia imprigionata attraverso la fotosintesi clorofilliana in tali   sostanze organiche può così essere liberata o bruciando il gas di sintesi (syngas) in una caldaia per sfruttarne il calore o alimentare una turbina a vapore, o usandolo come combustibile   per motori a scoppio, o ricavandone idrogeno da usare poi in pile a   combustibile per produrre elettricità. Questo gas può essere   successivamente utilizzato per produrre energia elettrica (con rendimenti da due   a tre volte più alti di un comune inceneritore) nonché ovviamente calore.  I gassificatori sono impiantisticamente molto versatili – possono essere di varia   tipologia e potenza, perciò si possono costruire direttamente dove servono   diminuendo i costi e l'inquinamento del trasporto – e sono un sistema efficiente   per sfruttare le potenzialità energetiche delle biomasse in generale, oltre che dei rifiuti solidi   urbani: si prestano pertanto a essere usati in agricoltura, poiché permettono di sfruttare terreni   poco produttivi o adatti solo a colture non pregiate per produrre energia, un   bene invece dal valore in continua crescita. Pertanto, a fronte di un investimento relativamente modesto sia in fase di   costruzione sia in gestione (grazie alla possibilità di introdurre una grande   varietà di materiale organico anche non trattato e in virtù della non necessità   di smaltire o filtrare grandi quantità di emissioni o rifiuti tossici),   permettono di ottenere un guadagno costante e sicuro, il che dà loro alte   potenzialità di sviluppo anche nel medio-breve termine, in un contesto di   difficoltà di smaltimento dei rifiuti (e di opposizione alla costruzione di   inceneritori tradizionali per i timori per la salute e l'ambiente) e di   contrazione del mercato per gli agricoltori.
Le emissioni sono molto variabili a seconda della tecnologia e dell'impianto:   si veda la voce Inceneritore per un confronto. Nel caso dell'impianto islandese di Husavik, che opera a temperature   inferiori ai 400° C (permettendo fra l'altro la completa autonomia di   funzionamento, in quanto per raggiungere questa temperatura si usa parte del gas   di sintesi prodotto), alla fine del processo rimangono ceneri per il 3% della   massa immessa, mentre dal lato delle emissioni, in particolare:
  - la bassa temperatura riduce di oltre cento volte l'emissione di polveri   sottili (e in particolare è ridotta la produzione di nanopolveri, che si   formano soprattutto ad alte temperature in presenza di forti turbolenze), la cui   produzione si concentra nella fase della combustione, in cui può però essere   limitata grazie alla purezza del gas ottenuto; 
- gli ossidi di azoto sono ridotti perché nella combustione l'idrogeno ne   sequestra i precursori; 
- i metalli pesanti sono ridotti notevolmente,   perché data la bassa temperatura ne è ridotta la sublimazione e la liberazione   nell'aria sotto forma di piccole impurità; 
- la concentrazione di diossine e furani è inferiore ai livelli misurabili: la   cinetica di reazione che negli inceneritori porta alla formazione di diossine,   non interviene alle normali temperature d'esercizio (la diossina si forma   soprattutto fra i 400 e gli 800° C), senza contare che l'alta efficienza della   combustione abbassa la quantità di composti organici necessari alla loro   formazione.
Il rendimento energetico totale (elettricità + calore) di tali impianti è   dichiarato attorno al 70% ed è gestibile in modo molto più flessibile rispetto   a un inceneritore. Si può infatti scalare, a seconda della necessità e della   stagione da un 60% elettrico + 10% termico ad un 20% elettrico + 50% termico.   Viceversa un inceneritore è molto più rigido ed in ogni caso la produzione   elettrica a stento supera il 25% anche nelle migliori condizioni. I rendimenti   di entrambe le tipologie di impianti ovviamente salgono molto se si ha la   possibilità di sfruttare il calore in una rete di teleriscaldamento. 
Un classico processo di gassificazione dei rifiuti è quello basato   sull'utilizzo di un reattore HTCW (High Temperature Conversion of Waste):esso   produce la dissociazione molecolare a una temperatura di 2700 °C, mentre le   ridotte quantità di ossigeno impediscono la combustione favorendo piuttosto un processo di   ossidazione parziale che trasforma il carbonio in CO e produce H2. Le diossine, i furani e altri inquinanti correlati, in queste   condizioni subiscono scissione in composti non nocivi. Rispetto a un classico   inceneritore, le emissioni di polveri ed inquinanti gassosi (gas acidi, CO ecc.)   risultano variabili in funzione della tecnologia utilizzata e comunque minori,   mentre il livello di metalli pesanti è sostanzialmente identico ma   il mercurio può anche essere maggiore (in particolare in funzione del tipo di rifiuti   trattati, ad esempio plastiche e pneumatici hanno emissioni diverse da biomasse   legnose): si veda la voce inceneritore per un confronto. La frazione   minerale viene trasformata in una fase vetrosa che trova uso in svariate   applicazioni.
Un processo di gassificazione differente adotta come fonte di calore una torcia al plasma, originariamente sviluppata per la Nasa allo scopo di mettere   alla prova i materiali realizzati per resistere alle altissime temperature cui   sono sottoposte le navicelle spaziali al rientro nell'atmosfera a causa dell'attrito. Il plasma generato dalla   torcia comprende gas ionizzato a temperature comprese fra i 7.000 e i 13.000 °C:   l'elevatissima quantità di energia, applicata ai rifiuti:
  - decompone le molecole organiche (in una zona di reazione dove la temperatura   va dai 3000 ai 4000 °C), che, con l'aggiunta di vapore d'acqua, producono così   un gas di sintesi simile a quello prodotto una volta nei gasogeni a carbone, e più precisamente   composto di idrogeno (53%) e monossido di   carbonio (33%), nonché anidride carbonica, azoto molecolare e metano (recuperato per produrre elettricità); 
- fonde i materiali inorganici e li trasforma in una roccia vetrosa simile   alla lava, totalmente inerte e non nociva, che può essere usata come materiale   da costruzione (in questo modo non può essere recuperato il materiale ferroso o   l'alluminio come con le scorie degli inceneritori). In questa "lava" sono   totalmente conglobati e quindi resi inerti tutti i metalli pesanti, perciò non   si hanno ceneri volanti che li contengano. Tuttavia, si ipotizza che in   procedimenti come questo si producano enormi quantità di nanopolveri, anche se non ci sono studi sulla loro   effettiva composizione e sono rarissimi quelli sulla dispersione nell'ambiente. 
Questi sono gli unici scarti: il tipo di combustione non permette la   produzione di nessun composto tossico o pericoloso come diossine, furani o ceneri. Per   questo un reattore al plasma può trattare pneumatici, PVC, rifiuti ospedalieri e altri rifiuti   industriali con emissioni minori di un normale inceneritore. Secondo alcune fonti l'adozione di questa tecnologia sarebbe relativamente   economica: circa il 20-40% in meno di un termovalorizzatore di ultima   generazione per costi di costruzione e gestione, a parità di produzione netta di   energia, nonostante la generazione di plasma a   7000-13000 C° comporti come ovvio elevatissimi consumi energetici;  non   risultano tuttavia impianti di questo genere per i rifiuti urbani, ma solo per   lo smaltimento dei rifiuti tossici come ceneri volanti da inceneritori, residui amiantiferi e PCB, mentre – come si è detto a proposito   delle scorie – sono allo studio applicazioni della tecnologia della torcia al   plasma per la loro vetrificazione, che risolverebbero un problema piuttosto   grave degli inceneritori (cioè lo smaltimento delle scorie pesanti, che sono   rifiuti pericolosi). La convenienza di questa operazione dipende dai consumi   energetici del processo, come visto elevati, e dall'uso che si può fare del   materiale ottenuto.
 Gassogeno 
  
 Gassogeno o gasogeno è un dispositivo in grado di produrre gas a   partire da una massa solida. A esempio esistono gassogeni a biomasse i quali raccolgono il gas prodotto da   escrementi e da altri materiali biologici in decomposizione per essere   utilizzato in diverse applicazioni, come il riscaldamento domestico. I gassogeni   più noti per ragioni storiche sono quelli a gas povero, che consistono in   particolari bruciatori nei quali al combustibile solido (carbone, coke o semplicemente legna secca) viene fornita una   quantità insufficiente di ossigeno,   cosa che porta alla formazione di molecole di monossido di carbonio. Il monossido di   carbonio può ulteriormente essere ossidato portando alla formazione di anidride   carbonica. Il gas povero prodotto è appunto una miscela di ossido di carbonio, anidride   carbonica, azoto e idrogeno, e si forma anche per effetto del vapore   d'acqua che si genera durante la combustione e attraversa il carbone   incandescente facendogli sprigionare una miscela detta gas d'acqua, che si unisce agli altri prodotti   della combustione (globalmente detti gas d'aria). Il gas povero è dunque composto da gas d'acqua e gas d'aria, e costituisce un   combustibile economico ma dal basso potere calorifico.Un tipico gassogeno è costituito da una camera cilindrica di lamiera alta 3-5   metri con diametro di 2 metri ricoperta all'interno di refrattario. Alla base   c'è una griglia a forma di cono su cui è appoggiato il coke (2 metri di altezza)   e attraverso cui viene immessa l'aria. Viene utilizzato per la produzione di gas   d'aria e gas d'acqua.   Innescata la combustione si nota che nella parte prossima alla griglia avviene   la combustione completa:


Essendo esotermica la reazione si raggiungerà la temperatura di 1200-1250°C;   l'anidride carbonica formatasi passa allo strato superiore di coke e avviene la   reazione:


Alla temperatura di 900°C si verifica che l'equilibrio è quasi tutto spostato   a destra,quindi abbiamo solo la presenza di CO, anche se rimane un 2-3% di CO2,   la reazione finale sarà:


  Generatore di vapore 
  Un generatore di vapore, o caldaia a vapore, o semplicemente caldaia è un'apparecchiatura che trasforma l'energia di combustibili in calore e lo rende disponibile in un circuito contenente   un liquido provocandone un cambiamento   di stato da liquido ad aeriforme,   in modo continuo ed in condizioni controllate.La prima caldaia di cui si ha notizia è la sfera di Erone, costituita   da un recipiente metallico cavo di forma sferica, chiuso salvi alcuni ugelli tangenziali; posta   sulla fiamma, l'acqua contenuta   vaporizzava e, per effetto dell'espansione conseguente, il vapore fuoriusciva dagli ugelli tangenziali ponendo la   sfera stessa in rotazione; si era in presenza quindi di un assieme caldaia - motore   a vapore. La sfera di Eliogabalo non ebbe seguito pratico, né vi furono   tentativi concreti di sfruttare il vapore fino al tardo XVII secolo; le ragioni di ciò essendo la mancanza   di utilizzatori e la mancanza di combustibile adatto (il legno, specie se verde, ha bassissimo potere calorifico e non è   adatto alla generazione di vapore se non con particolari accorgimenti,   relativamente più recenti). Nel XVIII secolo,   quando iniziarono le applicazioni del vapore come produttore di energia   meccanica, si sviluppò anche la tecnologia delle caldaie. Nei primi generatori   di vapore, la caldaia era un recipiente metallico, di solito cilindrico, al   disotto del quale veniva fatto bruciare il carbone. Questi modelli, non   differenti nel principio dalle moderne pentole a pressione (recipiente chiuso   posto su una fiamma esterna, con uscita su cui agisce una contropressione   controllata), si passò al tipo, ancor oggi usato anche se solo sporadicamente, Cornovaglia, definibili a grande volume   d'acqua. Le caldaie da riscaldamento odierne (che però non sono generatori   di vapore) sono simili al tipo Cornovaglia. 
 
    
Con l'aumentare dell'uso del vapore,   tra la fine del XVIII e   l'inizio del XIX secolo, il   semplice focolare della Cornovaglia, che non permetteva grandi superfici di   scambio, venne gradualmente sostituito da sistemi a fascio tubiero che, oltre ad   aumentare la superficie di scambio, consentivano un migliore controllo del moto convettivo dell'acqua: le   caldaie a tubi di fumo (vedi figura), dette anche a medio volume d'acqua. Questo è il modello generalmente usato nelle locomotive a vapore. Verso la fine del XIX secolo, nel 1867, gli   statunitensi George Babcock e Stephen Wilcox concepirono una caldaia, da loro   definita non esplodente in cui all'interno dei tubi, anziché i fumi di   combustione, veniva fatta circolare l'acqua da vaporizzare, creando così   migliori coefficienti di scambio e, dato che si potevano usare tubi più piccoli   e tortuosi, maggiori superfici di scambio, ottenendo così caldaie più piccole a   parità di produzione; ulteriori vantaggi erano il ridotto volume d'acqua, che   consentiva un avviamento molto più rapido, e le dimensioni minori delle parti a   pressione, che venivano così ad avere minori spessori (da qui il nome non   esplodente). Infine, la caldaia a tubi d'acqua presenta una superficie assai   elevata (rispetto alla tubi di fumo) esposta all'irraggiamento diretto del   focolare. 
 
    
Delle caldaie a tubi d'acqua vennero anche realizzati in quel periodo tipi   particolari, in cui la circolazione viene assicurata da una pompa esterna: le   caldaie a circolazione forzata, di cui il tipo principale è la caldaia   tipo La Mont. Il sistema è oggi largamente usato, specie nelle grandi   caldaie destinate all'alimentazione di turbine per produzione di energia   elettrica. Parte dell'evoluzione delle caldaie è dovuta all'evoluzione dei combustibili. Dal legno dei primordi, si è passati al carbone verso il XVIII secolo, e questo è rimasto per un secolo e   mezzo il combustibile principe; la combustione avveniva nel focolare, sostanzialmente una griglia, su cui veniva posto il combustibile   solido, in modo più o meno meccanizzato e da cui venivano evacuate le ceneri, anch'esse in modo più o meno   meccanizzato. Nel XX secolo il   carbone è stato gradualmente soppiantato dai combustibili liquidi; ciò ha   richiesto la sostituzione del focolare con altri sistemi, in grado di iniettare   miscele combustibile liquido - comburente gassoso nella camera di   combustione. Tali dispositivi sono detti bruciatori. 
  Generatore elettrico
Un generatore elettrico è un dispositivo destinato a produrre energia elettrica a   partire da una diversa forma di energia. Concettualmente esistono due tipi di generatori elettrici:
Il generatore di tensione produce una tensione   elettrica definita e costante (o comunque un andamento prefissato in   funzione del tempo). Il variare del carico applicato comporta una variazione   della corrente uscente dal generatore secondo quanto previsto dalla legge di Ohm. Il generatore di   corrente mantiene invece una corrente elettrica, ed al variare del carico   varia la tensione in uscita dal generatore in modo che, per effetto della legge   di Ohm la corrente si mantenga al valore corretto. Generatore ideale. Nello studio teorico dei fenomeni e circuiti elettrici si considerano in   genere i generatori come ideali. Un generatore ideale è in grado di produrre   qualunque tensione e corrente senza alcun limite ed è privo di resistenza interna. Il valore di corrente o tensione generato è indipendente   dal carico applicato. Nella realtà non esistono generatori ideali, poiché qualunque dispositivo ha   una sua resistenza interna intrinseca, inoltre è in grado di generare tensione e   corrente solo entro determinati limiti. Generatore reale. Un generatore reale di tensione può essere rappresentato come un   generatore ideale di tensione con esplicitata in serie la resistenza interna, mentre il generatore reale di corrente può essere rappresentato come un   generatore ideale di corrente con in parallelo la resistenza interna. In teoria, qualora un circuito comprendente un generatore ideale   di corrente venga aperto, la tensione in uscita dovrebbe salire all'infinito.   Nei generatori reali esiste però un valore limite di tensione oltre il quale la   corrente crolla a zero. Dal punto di vista teorico, nella rappresentazione   teorica del generatore reale la corrente in uscita dal generatore ideale si   chiude sulla resistenza interna. Generatori elettrodinamici. Questi generatori si basano sulla induzione di corrente elettrica in un circuito per   effetto della legge di Faraday-Neumann-Lenz e   sono i più importanti in termini di produzione di energia   elettrica. In questa categoria rientrano principalmente la dinamo per la produzione di corrente continua e l'alternatore, in grado di generare corrente   alternata. Generatori elettrochimici. Quando il flusso di elettroni è   prodotto da una reazione di ossidoriduzione si ha un generatore   elettrochimico. I più comuni sono le pile e le celle a   combustibile. 
    Gestore del Mercato Elettrico (GME)
  E’ la società per azioni costituita dal  GSE alla quale è affidata la gestione economica del mercato elettrico secondo criteri di trasparenza e  obiettività, al fine di promuovere la concorrenza tra i produttori assicurando la disponibilità di un adeguato livello di  riserva di potenza. In particolare il GME gestisce il Mercato del giorno prima, il Mercato di Aggiustamento  e il Mercato per il servizio di dispacciamento. Al GME è affidato inoltre la contrattazione dei Certificati  Verdi e dei titoli di efficienza energetica (“Certificati Bianchi”).
  Gestore della rete di trasmissione nazionale (GRTN) 
  E’ una società per azioni la cui costituzione è avvenuta in base al Decreto   Bersani; al Gestore della Rete sono attribuite in concessione le attività di   trasmissione e dispacciamento e la gestione unificata della rete di trasmissione   nazionale. Il Gestore ha il compito di assicurare il buon funzionamento   dell'intero sistema elettrico.
  Gestore di rete elettrica
  E’ la persona fisica o giuridica  responsabile, anche non avendone la proprietà, della gestione di una rete elettrica con obbligo di connessione  di terzi, nonché delle attività di manutenzione e di sviluppo della medesima.
  Grandi opere.
  Il controllo ambientale. 
    Gray (radioattività).
  Il gray (simbolo Gy) è l'unità di misura della dose assorbita di radiazione del Sistema Internazionale. Un'esposizione di un gray corrisponde ad una radiazione che deposita un joule, (definito come 1 kg•m2/s2), per chilogrammo(kg) di materia (sia tessuti biologici che qualsiasi altra cosa). Gy=J/kg=m2/s2. 
  Grossista 
  Persona fisica o giuridica che acquista e  vende energia elettrica senza esercitare attività di produzione, trasmissione e distribuzione nei Paesi  dell’Unione Europea.
  Gruppo regolante 
  Gruppo di generazione idoneo a mantenere la tensione e la frequenza dell’energia   elettrica consegnata alla rete entro il loro campo normale di valori. 
  GSE 
  Gestore Servizi Eletttrici. Ha un ruolo centrale nella promozione, nell'incentivazione e nello sviluppo   delle fonti rinnovabili in Italia. Azionista unico del GSE è il Ministero   dell'Economia e delle Finanze che esercita i diritti dell'azionista con il   Ministero delle Attività Produttive. Il GSE è capogruppo delle due società   controllate AU (Acquirente Unico) e GME (Gestore del Mercato Elettrico). In seguito al trasferimento del ramo d’azienda relativo a dispacciamento,   trasmissione e sviluppo della rete a Terna S.p.A, avvenuto il 1° novembre 2005   per effetto del DPCM dell’11 maggio 2004, il GSE si concentra sulla gestione,   promozione e incentivazione delle fonti rinnovabili in Italia, attività in parte   già svolte. Il Gestore dei Servizi Elettrici - GSE S.p.a. svolge un ruolo fondamentale   nel meccanismo di incentivazione della produzione di energia da fonti   rinnovabili e assimilate, predisposto dal provvedimento CIP 6/92, e a gestire il   sistema di mercato basato sui Certificati Verdi. Rilascia, inoltre, la Garanzia di Origine, riconoscimento introdotto dalla   direttiva comunitaria 2001/77 per l’energia elettrica da fonte rinnovabile, e i   certificati RECS (Renewable Energy Certificate System), titoli internazionali,   su base volontaria, attestanti la produzione rinnovabile. A rafforzare la caratterizzazione delle attività svolte dal GSE,   l’assegnazione - da parte dell’AEEG - del ruolo di “soggetto attuatore” previsto   dal decreto del Ministero delle Attività produttive del 28 luglio 2005, per   l’incentivazione della produzione di energia elettrica mediante conversione   fotovoltaica della fonte solare. 
   Idrogeno 
   L'idrogeno è l'elemento più leggero e abbondante dell'universo. È tuttavia   assai raro sulla Terra allo stato elementare, a causa della sua estrema   volatilità. Per poterne disporre in quantità industrialmente utili occorre   pertanto estrarlo dai composti che lo contengono in abbondanza (a esempio   dall’acqua, dai combustibili fossili, da sostanze minerali e da organismi   vegetali) utilizzando una fonte di energia esterna. Per questo motivo   l’idrogeno, al pari dell’elettricità, deve essere considerato un vettore   energetico, piuttosto che una fonte energetica primaria. L'interesse per il   suo impiego come combustibile, tanto per applicazioni industriali quanto per   l’autotrazione, deriva dal fatto che l'inquinamento prodotto dall’idrogeno è   quasi nullo. Se usato in sistemi a combustione produce, infatti, soltanto vapore   acqueo e tracce di ossidi di azoto; mentre produce solo vapore acqueo, se viene   utilizzato con sistemi elettrochimici (celle a combustibile). Le tecnologie   di produzione dell'idrogeno a partire dai combustibili fossili (in particolare   dal carbone) sono mature e ampiamente utilizzate, anche se vanno ottimizzate da   un punto di vista economico, energetico e di impatto ambientale. Dei circa 500   miliardi di m3 di idrogeno prodotti annualmente a livello mondiale, circa 190   miliardi rappresentano un sottoprodotto dell'industria chimica, mentre la   maggior frazione deriva da combustibili fossili (gas naturale, idrocarburi   pesanti e carbone) attraverso processi di reforming, di ossidazione parziale, di   pirolisi e di gassificazione.
  La produzione dell’idrogeno dai   combustibili fossili ha tuttavia l'inconveniente di dar luogo alla emissione,   come prodotto di scarto, di grandi quantità di CO2, gas notoriamente a effetto   serra. Tuttavia proprio la produzione dell’idrogeno dal carbone e l’idrogeno   generato come sottoprodotto nell’industria chimica appaiono oggi le uniche   strade praticabili per avviare una filiera produttiva di dimensioni tali da   raggiungere le necessarie economie di scala. L'estrazione diretta di   idrogeno dall'acqua ha, al momento, un unico processo industriale consolidato:   l'elettrolisi. In questo caso si dà luogo a un processo di produzione e consumo   ambientalmente sostenibile, ma è necessaria una corrispondente quantità di   energia elettrica pulita in grado di alimentare il processo di elettrolisi.   Il problema è pertanto quello dei costi: con l'elettrolisi dell'acqua, infatti,   si può ottenere idrogeno praticamente puro, ma a un prezzo che può diventare   economicamente accettabile in una prospettiva ancora lontana, allorquando le   innovazioni tecnologiche potranno consentire di utilizzare per il processo   energia elettrica prodotta da fonti rinnovabili (o da nucleare) a costi molto   bassi. Altri aspetti da valutare con attenzione sono inoltre quelli legati   alla difficoltà di trasporto e stoccaggio , sia per la bassa densità   energetica, sia perché l’idrogeno è esplosivo, infiammabile ed estremamente   volatile.
  Lo sviluppo dell'idrogeno come vettore energetico è pertanto   una opzione di estremo interesse per contribuire a risolvere i problemi   energetici del pianeta, ma richiede miglioramenti sostanziali nelle tecnologie   esistenti e la ricerca di tecnologie innovative per renderne l'impiego economico   e affidabile nelle varie fasi della catena tecnologica (produzione, trasporto,   stoccaggio, utilizzo finale). Si tratta di una sfida non semplice, che si sta   oggi affrontando con numerose tecnologie allo studio. In questo scenario   l'Italia può avere un ruolo da protagonista, poiché le conoscenze scientifiche e   le capacità tecnologiche possedute sono di vertice a livello   internazionale. La ricerca è particolarmente attiva nel   settore della produzione sia da fonti fossili, attraverso la   gassificazione del carbone, sia da fonti rinnovabili con il processo di   elettrolisi, sfruttando l’elettricità prodotta nelle centrali   idroelettriche.
  
  Impianto fotovoltaico 
  Impianto costituito da moduli fotovoltaici  e altri componenti progettato per produrre energia elettrica a partire dalla radiazione solare.
  Impianto fotovoltaico connesso in rete 
  Impianto fotovoltaico collegato alla rete  di distribuzione dell’energia elettrica.
  Impianto fotovoltaico isolato 
  Impianto fotovoltaico non collegato alla  rete elettrica di distribuzione.
  Impianto misto 
  Stazione elettrica (anche localizzata presso un impianto di produzione)   all’interno della quale sono realizzate trasformazioni AAT/AT afferenti alla   rete di trasmissione nonché trasformazioni AT/MT tipiche di cabina primaria. In   esso le competenze sono, normalmente, suddivise tra il GSE e il gestore della   rete di distribuzione. 
  Impianto produttore  
  Insieme del macchinario, dei circuiti, dei servizi ausiliari, delle   apparecchiature e degli eventuali carichi per la generazione di energia   elettrica, che ha origine nel punto di consegna. Indice di corretto   funzionamento su guasto (Dp) Indicatore della capacità del sistema complessivo   di protezione nell’eliminare i guasti, una volta che siano stati rilevati. E’   definito dalla formula Dp=1-F/A dove: A= numero totale di guasti nel sistema; F=   numero di guasti nel sistema in cui l’interruttore ha mancato l’apertura. 
    Indice di disalimentazione Rapporto tra l'energia non fornita in una   determinata rete elettrica a causa di disservizi ed il picco di carico nella   stessa rete nel periodo di tempo considerato. Costituisce un parametro che   consente di valutare la continuità del servizio elettrico. 
  Impronta ecologica. 
  L'impronta ecologica è un indicatore utilizzato per valutare il consumo umano di risorse naturali rispetto alla capacità della Terra di rigenerarle. L'impronta ecologica misura l'area biologicamente produttiva di mare e di terra necessaria per rigenerare le risorse consumate da una popolazione umana e per assorbire i rifiuti prodotti. Utilizzando l'impronta ecologica, è possibile stimare quanti "pianeta Terra" servirebbero per sostenere l'umanità, qualora tutti vivessero secondo un determinato stile di vita. Confrontando l'impronta di un individuo (o regione, o stato) con la quantità di terra disponibile pro-capite (cioè il rapporto tra superficie totale e popolazione mondiale) si può capire se il livello di consumi del campione è sostenibile o meno. Per calcolare l'impronta ecologica si mette in relazione la quantità di ogni bene consumato (es. grano, riso, mais, cereali, carni, frutta, verdura, radici e tuberi, legumi, ecc.) con una costante di rendimento espressa in kg/ha (chilogrammi per ettaro). Il risultato è una superficie espressa quantitativamente in ettari. Si può esprimere l’impronta ecologica anche da un punto di vista energetico, considerando l’emissione di diossido di carbonio espressa quantitativamente in tonnellate, e di conseguenza la quantità di terra forestata necessaria per assorbire le suddette tonnellate di CO2. Da alcuni studi effettuati su scala mondiale e su alcuni paesi emerge che l'impronta mondiale è maggiore della capacità bioproduttiva mondiale. Secondo Mathis Wackernagel, nel 1961 l'umanità usava il 70% della capacità globale della biosfera, ma nel 1999 era arrivata al 120%. Ciò significa che stiamo consumando le risorse più velocemente di quanto potremmo, cioè che stiamo intaccando il capitale naturale e che nel futuro potremo disporre di meno materie prime per i nostri consumi. Relativamente ad alcuni stati, i dati dell'impropnta pro-capite sono i seguenti: Usa 9,6ha, Svezia 6,6ha, Canada 5,8ha, Francia 5,6ha, Italia 4,2ha. Il dato va raffrontato con la biocapacità media mondiale che è di 1,78 ettari pro capite.
  Indice di prestazione energetica di un  edificio (IPE).  
 L'indice di prestazione energetica per la climatizzazione invernale, o più semplicemente "indice di prestazione energetica" (in acronimo IPE), è un parametro architettonico che viene usato per valutare l'efficienza energetica di un edificio. In particolare questo indice tiene conto del rapporto tra l'energia necessaria per portare un ambiente alla temperatura di 18 °C e la sua superficie utile o volume lordo, in caso di locali non residenziali. Per superficie utile si intende la superficie netta calpestabile dell'ambiente. L'indice di prestazione energetica viene quindi espresso in kWh/m2 per anno, o kWh/m3 per anno per locali non residenziali. In merito alla recente tendenza al risparmio energetico l'Unione europea ha notificato la strada da percorrere in materia edile ai suoi paesi membri con la direttiva 2002/91/ce “rendimento energetico nell'edilizia” o la direttiva 2006/32/ce “efficienza degli usi finali dell'energia e i servizi energetici”. Per adeguarsi a queste nuove disposizioni anche in Italia sono state emanate alcune leggi che stabiliscono dei valori convenzionali del'IPE che devono essere soddisfatti nell'ambito della realizzazione di nuovi edifici. Nel particolare il decreto del Presidente della Repubblica dpr 59/09, specifica alcuni valori dell'IPE che vanno certificati in corso d'opera. Dal 1º gennaio 2012, nel caso di offerta di trasferimento a titolo oneroso di edifici o di singole unità immobiliari, gli annunci commerciali di vendita devono riportare l'indice di prestazione energetica contenuto nell’attestato di certificazione energetica. L’obbligo deriva dall’art. 13 del Dlgs 3 marzo 2011, n. 28 che ha apportato modifiche al decreto legislativo 19 agosto 2005, n. 192. L'IPE si presta infine a essere utilizzato come riferimento contrattuale nei servizi di aumento di efficienza energetica che le Energy Service Company realizzano per conto del cliente. 
  Indisponibilità di un elemento della rete 
  Stato nel quale un elemento della Rete non è utilizzabile da parte del Gestore   per l’attività di trasmissione.
  L’indisponibilità si distingue in: 
  - programmata, se è prevista nel piano annuale delle indisponibilità o nel   piano trimestrale per le indisponibilità e ha una durata inferiore a cinque   giorni; 
- occasionale, se non è prevista nel piano annuale ma è prevista nel piano   trimestrale delle indisponibilità e ha una durata superiore o uguale a cinque   giorni; non è prevista nel piano trimestrale ma è prevista nel piano mensile. 
L’indisponibilità occasionale si distingue in:
  - differibile se è relativa ad una manutenzione occasionale differibile; 
- indifferibile se è relativa ad una manutenzione occasionale indifferibile; 
- su guasto, se è conseguente al verificarsi di un guasto; 
- per causa esterna, se dovuta ad esigenze di terzi o ad eventi non   attribuibili al Titolare; ad esempio: lavori o prove richiesti da   gestori/titolari di reti limitrofe o da altri operatori, calamità naturali,   provvedimenti di autorità pubbliche. 
Induttanza 
  Una corrente   elettrica i che scorre in un circuito elettrico produce un campo magnetico nello   spazio circostante e un flusso magnetico Φ   attraverso il circuito. L'induttanza del circuito è quindi il rapporto   tra il flusso magnetico generato e la corrente passante. Il termine fu   utilizzato per la prima volta da Oliver Heaviside nel Febbraio 1886. L'induttanza si indica con la lettera L maiuscola. La definizione operativa di induttanza di una spira di corrente è data dalla seguente relazione:
    
In onore di Joseph   Henry, all'unità di misura dell'induttanza è stato dato il nome henry (H) : 1 H = 1 Wb /1 A. L'induttanza è anche detta coefficiente di autoinduzione del circuito.
    Induttore 
  E' un componente elettrico che genera un campo magnetico al   passaggio di corrente elettrica (continua o alternata o   impulsiva). Nella teoria   dei circuiti l'induttore è un componente ideale (la cui grandezza   fisica è l'induttanza) in cui tutta l'energia elettrica assorbita è   immagazzinata nel campo magnetico prodotto. Gli induttori reali, realizzati con   un avvolgimento di un filo conduttore, presentano anche fenomeni dissipativi e   capacitativi di cui si deve tenere conto. Gli induttori sono impiegati in una varietà di dispositivi elettrici ed   elettronici, tra i quali i trasformatori ed i motori elettrici nonché in svariati circuiti a   corrente alternata ad alta frequenza.
  Induzione elettromagnetica 
  La legge di Faraday o legge dell'induzione elettromagnetica è   una legge fisica che   quantifica il fenomeno dell'induzione elettromagnetica, ovvero l'effetto di   produzione di corrente elettrica in un circuito posto in   un campo magnetico variabile oppure un circuito in movimento in un campo magnetico costante. È   stata scoperta nel 1831 dal fisico inglese Michael Faraday, ed   è attualmente alla base del funzionamento dei comuni motori elettrici, generatori   elettrici e trasformatori.
  Intelligenza artificiale (IA) 
  Vedi articolo specifico.
  Inverter 
  Un inverter è un apparato   elettronico in grado di convertire corrente continua in corrente   alternata eventualmente a tensione diversa, oppure una corrente   alternata in un'altra di differente frequenza
  Inverter fotovoltaico 
  Si tratta di un tipo particolare di inverter progettato espressamente per   convertire l'energia elettrica sotto forma di corrente continua prodotta da modulo   fotovoltaico, in corrente alternata da immettere direttamente   nella rete elettrica. Queste macchine estendono la   funzione base di un inverter generico con funzioni estremamente sofisticate e   all'avanguardia, mediante l'impiego di particolari sistemi di controllo software e hardware, che consentono di estrarre dai pannelli   solari la massima potenza disponibile in qualsiasi condizione meteorologica.   Questa funzione prende il nome di MPPT, un acronimo di origine Inglese che sta   per Maximum Power Point Tracker. I moduli   fotovoltaici infatti, hanno una curva caratteristica V/I tale che esiste   un punto di lavoro ottimale, detto appunto Maximum Power Point, dove è possibile   estrarre tutta la potenza disponibile. Questo punto della caratteristica varia   continuamente in funzione del livello di radiazione solare che colpisce la   superficie delle celle. È evidente che un inverter in grado di restare   "agganciato" a questo punto, otterrà sempre la massima potenza disponibile in   qualsiasi condizione. Ci sono svariate tecniche di realizzazione della funzione   MPPT, che si differenziano per prestazioni dinamiche (tempo di assestamento) e   accuratezza. Sebbene la precisione dell'MPPT sia estremamente importante, il   tempo di assestamento lo è, in taluni casi, ancor più. Mentre tutti i produttori   di inverter riescono ad ottenere grande precisione sull'MPPT (tipicamente tra il   99-99,6% della massima disponibile), solo in pochi riescono ad unire precisione   a velocità. È infatti nelle giornate con nuvolosità variabile che si verificano   sbalzi di potenza solare ampi e repentini. È molto comune rilevare variazioni da   100W/m² a 1000-1200W/m² in meno di 2 secondi. In queste condizioni, che sono   molto frequenti, un inverter con tempi di assestamento minori di 5 secondi   riesce a produrre fino al 15%-20% di energia in più di uno lento. Alcuni   inverter fotovoltaici sono dotati di stadi di potenza modulari, e alcuni sono   addirittura dotati di un MPPT per ogni stadio di potenza. In questo modo i   produttori lasciano all'ingegneria di sistema la libertà di configurare un   funzionamento master/slave o a MPPT indipendenti. In genere   l'impiego di MPPT separati fa perdere qualche punto percentuale di rendimento   elettrico medio della macchina, che è costretta a funzionare a pieno regime   anche con irraggiamento scarso. Tuttavia non è infrequente che la superficie dei   pannelli solari non possa essere esposta al sole uniformemente su tutto il campo   perché disposto su due diverse falde del tetto, oppure che i moduli non possano   essere distribuiti su stringhe di uguale lunghezza. In questo caso l'utilizzo di   un solo MPPT porterebbe l'inverter a lavorare fuori dal punto di massima potenza   e conseguentemente la produzione di energia ne sarebbe danneggiata. Un'altra caratteristica importante di un inverter fotovoltaico, è   l'interfaccia di rete. Questa funzione, generalmente integrata nella macchina,   deve rispondere ai requisiti imposti dalle normative dei diversi enti di   erogazione di energia elettrica. In Italia, ENEL ha rilasciato la normativa DK5940, attualmente giunta   all'edizione 2.2. Questa normativa prevede una serie di misure di sicurezza tali   da evitare l'immissione di energia nella rete elettrica qualora i parametri di   questa, siano fuori dai limiti di accettabilità.
   IPEX  (Italian Power Exchange) 
   Detto anche Borsa elettrica, è il mercato fisico per lo scambio "all'ingrosso"   di quantità stabilite di energia, basato su un meccanismo di asta e sulla   definizione di programmi di immissione e di prelievo dalla rete di trasmissione   nazionale. I programmi e le quantità di energia scambiate vengono regolati sulla   base di un libero sistema di domanda e offerta, previa verifica della loro   rispondenza ai vincoli della rete da parte del Gestore della Rete di   Trasmissione Nazionale.
   
  Irraggiamento 
  Radiazione solare istantanea (quindi una  potenza) incidente sull’unità di superficie. Si misura in kW/m2. L’irraggiamento rilevabile all’Equatore, a  mezzogiorno e in condizioni atmosferiche ottimali, è pari a circa 1.000 W/m2.
  IUPAC 
  Acronimo di International Union of Pure and Applied   Chemistry (in italiano Unione Internazionale di Chimica Pura ed   Applicata), è una organizzazione non governativa internazionale, dedita al progresso della chimica. I suoi membri sono le varie società chimiche   nazionali. La IUPAC opera in accordo ed armonizza la propria nomenclatura e   terminologia, ove necessario, con la IUPAP e l'ISO ed adotta   il Sistema Internazionale SI di grandezze ed unità di misura. È un'autorità riconosciuta che si riunisce periodicamente per aggiornare le   regole riguardanti la nomenclatura chimica degli elementi e dei   composti, attraverso il Comitato Interdivisionale per la Nomenclatura e i   Simboli. È inoltre membro del Consiglio Internazionale per le Scienze (ICSU).
  IUPAP 
  L' International Union of Pure and Applied Physics (IUPAP) è   una organizzazione non governativa che si impegna nell'avanzamento della fisica. È stata creata nel 1922 e la sua prima Assemblea generale è avvenuta nel 1923 a Parigi. L'IUPAP è membro dell'International Council for   Science (ICSU). Gli obiettivi dell'IUPAP sono:
  - promuovere e stimolare la collaborazione internazionale nello studio della   fisica 
- patrocinare meeting internazionali   e collaborare all'organizzazione di comtati 
- incoraggiare la preparazione e pubblicazione di abstract e documenti sulle costanti fisiche 
- promuovere accordi internazionali sull'uso comune di simboli, unità di misura,   nomenclature e stadard 
- promuovere la libera circolazione degli scienziati 
- incoraggiare la ricerca e la didattica 
L'unione è governata da un'Assemblea generale che si riunisce ogni 3 anni. Il   concilio è l'organo esegutivo più importante e supervisione le attività delle 19   commissioni internazionali e delle tre commissioni affiliate. L'unione è   composta da membri (attualmente 49) rappresentanti diverse comunità di   fisici. La commissione SUNAMCO dello IUPAP ha pubblicato il libro Symbols,   Units, Nomenclature and Fundamental Constants in Physics, scritto da E.   Richard Cohen e Pierre Giacomo, conosciuto anche come red book,   I.U.P.A.P.-25, o SUNAMCO 87-1. Il sito web del SP Technical Research Institute of Sweden ha reso l'edizione del 1987   disponibile in rete.
    Joule 
  Il joule (simbolo: J.), è un'unità di misura derivata del Sistema   internazionale (SI). Il joule è l'unità di misura dell'energia, del lavoro e del calore (per quest'ultimo è più frequente la caloria), ed è definito come 1 kg·m2/s2 = 1 N·m = 1 W·s. Prende il nome dal fisico James Prescott Joule.
    
 
    
Un joule è il lavoro richiesto per esercitare una forza di un newton per una   distanza di un metro, perciò la stessa quantità puo essere riferita come newton metro. Comunque, per evitare confusione, il newton metro è   tipicamente usato come la misura della coppia di torsione e non dell'energia. Un altro modo   di visualizzare il joule è il lavoro richiesto per sollevare una massa di 102 g (una piccola mela) per un metro, opponendosi alla forza di gravità terrestre. Un joule è anche il lavoro svolto per produrre la potenza di un watt per un   secondo, esattamente come se qualcuno impiegasse un secondo per sollevare la   suddetta mela.
1 joule equivale a:
  - 6,24150975·10exp18 eV 
- 107 erg 
- 1 W·s (watt secondo) 
- 1 N·m (newton metro) 
- 1 Pa·m3 (pascal metro cubo) 
- 2,39·10-1 calorie 
- 9,48·10-4 British thermal unit 
- 2,78·10-7 chilowattora (1 chilowattora equivale esattamente   a 3 600 000 J) 
Kirchhoff (Prima legge di) 
  La legge di Kirchhoff delle correnti (LKC o LKI) afferma che, definita   una superficie chiusa che attraversi un circuito elettrico, la somma algebrica   delle correnti che attraversano la superficie (con segno diverso se entranti o   uscenti) è nulla. In ogni istante di tempo si ha quindi: sommatoria estesa alla superficie sigma delle ik(t) ( ik(t) è il valore della k -esima corrente che attraversa σ all'istante t) èuguaòe a zero.  In una formulazione semplificata, e definendo una superficie che racchiuda un   singolo nodo del circuito, si può dire che in esso la somma delle correnti   entranti è uguale alla somma delle correnti uscenti. Indicando con Ie le   correnti entranti e con Iu le correnti uscenti, in formula si scrive:
   
 
Ad esempio, prendiamo un nodo a cui giungono quattro rami del circuito e   chiamiamo le correnti i1, i2, i3 ed i4. Decido che da un solo ramo uscirà   corrente (i4), quindi la formula sarà:
  - i1 + i2 + i3 = i4 
che trasformata nella forma canonica dà 
  - i1 + i2 + i3 - i4 = 0 
In questo caso essendoci un'unica uscita, i4 sarà la somma di tutte le altre   correnti. La somma algebrica totale sarà quindi nulla. Se risolvendo il circuito   otteniamo un valore negativo di corrente questo significa che il verso effettivo   con cui la carica percorre il ramo è l'opposto di quello ipotizzato   all'inizio. Se il circuito è in corrente continua la somma va intesa come   somma algebrica. Se il circuito è in regime   sinusoidale (vedi anche corrente alternata) la somma può essere   fatta anche sui fasori corrispondenti   alle correnti (quindi come somma vettoriale). La prima legge semplicemente riflette il fatto che la carica non può essere   dispersa. Se vengono indicati tutti i possibili tragitti lungo i quali il   trasferimento della carica è possibile, e se si è certi che una emissione   effettiva di elettroni o effetti collaterali non esistono, allora la carica   netta spostata verso un nodo, deve uguagliare quella che vi si allontana.   Conseguentemente, la velocità totale con cui la carica entra in un nodo, ovvero   la corrente in entrata, deve uguagliare la velocità totale della carica che lo   lascia, ovvero la corrente in uscita.
    Kirchhoff (Seconda legge di) 
  Nella formulazione più semplice la legge di Kirchhoff delle tensioni (LKT o   LKV) afferma che, in un circuito a parametri concentrati planare, è definito il   concetto di potenziale elettrico (vedi anche differenza di potenziale o d.d.p.).   Equivalentemente, la somma algebrica delle tensioni lungo una linea chiusa (con   il segno appropriato in funzione del verso di percorrenza della maglia stessa) è   pari a zero. Se le grandezze elettriche del circuito sono rappresentate nel dominio del   tempo (per esempio se è in corrente continua) la somma va intesa come   somma algebrica. Se il circuito è in corrente alternata e le grandezze elettriche   sono rappresentate da fasori la somma   può essere fatta anche sui fasori corrispondenti alle tensioni (quindi come somma   vettoriale.). Indicando con Vi le   tensioni, in formula si può scrivere:
 .
.
Una maglia  è un percorso chiuso di una rete elettrica che   partendo da un nodo torna allo stesso senza attraversare uno stesso ramo due   volte, non è necessario che tra due nodi successivi di una maglia ci sia un   componente "effettivo" (anche perché si può sempre immaginare la presenza di un   componente circuito   aperto). Questa legge corrisponde alla legge di conservazione   dell'energia per un campo conservativo, in quanto afferma che il lavoro compiuto per far   compiere ad una carica un percorso chiuso deve essere uguale a zero
Clicca l'iniziale per trovare la parola cercata
  A B C 
  D E F 
  G H I J K 
  P Q R 
  S T U 
  V W X Y Z
 
L  M  N  O 
Lavoro (fisica) 
 In fisica si parla di lavoro tutte le volte che una forza agisce su un corpo in concomitanza con il suo spostamento. Se un corpo è appoggiato su una superficie, soggetto alla forza peso, e non si muove per effetto di forze esterne, la forza peso non compie alcun lavoro; se il corpo viene sollevato, la forza che ha agito sul corpo per determinarne lo spostamento ha compiuto un lavoro. Il lavoro compiuto da una forza per innalzare un corpo di un certo tratto rispetto alla sua posizione originaria è proporzionale all'entità dello spostamento del corpo: occorrerà più lavoro per sollevare un corpo di 1 metro piuttosto che per innalzarlo di 1 centimetro. Data una forza costante, F, che, applicata a un corpo, ne provoca lo spostamento di un segmento s, si definisce lavoro, L, della forza il prodotto dello spostamento per la componente, Fs, della forza nella direzione dello spostamento: 
L=F.s 
Il lavoro è una grandezza scalare , quindi non è dotato di una direzione e di un verso. Se la forza è parallela allo spostamento, il lavoro sarà dato semplicemente dal prodotto della forza per lo spostamento; se invece la forza è perpendicolare allo spostamento, non avrà alcuna componente nella direzione dello spostamento, quindi il lavoro è nullo. Perciò, una forza perpendicolare allo spostamento non compie alcun lavoro. Il lavoro sarà massimo in valore assoluto quando la forza è parallela allo spostamento e minimo (nullo) quando la forza è perpendicolare. A seconda della direzione relativa del vettore forza e del vettore spostamento, il lavoro si divide in lavoro motore e lavoro resistente. Se le direzioni della forza e dello spostamento hanno il medesimo verso, il lavoro è positivo e si dice lavoro motore: quando un corpo cade da una certa altezza, la forza di gravità (diretta verso il basso) compie un lavoro motore. Se forza e spostamento hanno direzione e verso opposti, il lavoro è negativo e si dice lavoro resistente: quando una molla viene compressa, la forza elastica, che tenderebbe a riportarla alla sua lunghezza originale, compie un lavoro resistente. L'unità di misura del lavoro è il joule (simbolo J), definito come il lavoro compiuto da una forza di 1 newton quando il suo punto di applicazione si sposta di 1 metro e dimensionalmente uguale a una forza per uno spostamento: 
1J = 1N . 1m
Legge di Ohm 
  Esprime una relazione tra la differenza di potenziale V (tensione   elettrica) ai capi di un conduttore e la corrente   elettrica I che lo attraversa. Sia R la resistenza del conduttore, abbiamo:
    
Gli elementi elettrici per i quali la legge è soddisfatta sono detti resistori (o resistenze) ideali o ohmici;   tuttavia, per ragioni storiche, si continua ad attribuire all'enunciato il rango   di legge. Si noti che la legge di Ohm esprime unicamente la relazione di   linearità fra la corrente elettrica I e la differenza di potenziale V applicata. L'equazione indicata è semplicemente una forma dell'espressione che   definisce il concetto di resistenza ed è valida per tutti i   dispositivi conduttori. La legge deve il proprio nome a quello del fisico tedesco Georg   Simon Ohm.
    Linea elettrica 
  Una linea elettrica è un sistema elettrico che collega due sezioni di   una rete al fine di trasferire la potenza dal punto di origine   all'arrivo. Si distinguono le linee in:
  - aeree (conduttori non isolati posati in aria fissati su sostegni di   diverso tipo, come i tralicci) 
- in cavo (conduttori isolati con diversi materiali posati a terra, in   canaline, tubazioni, etc..) 
C'è un'ulteriore classificazione in base alla forma d'onda della corrente trasmessa (linee a corrente   continua o alternata) e in base al valore della tensione   elettrica (linee in bassa, media o alta tensione). Il circuito equivalente di un tratto di linea lungo 1km si schematizza con due parametri longitudinali (Rl e Xl) e due trasversali   (Cl e Gl). Se si volesse considerare il circuito equivalente di tutta l'intera   linea in considerazione vanno "uniti" questi blocchi di circuito. I parametri sono definiti come segue per unità di lunghezza:
  - Rl - resistenza di linea: è la resistenza   fisica del cavo al passaggio della corrente: 
   in [ Ω / Km ] dove in [ Ω / Km ] dove
- * ρ è la resistività del materiale in Ω mm2   / Km; di solito i cavi in alta tensione son costituiti da rame o alluminio insieme all'acciaio che fornisce una buona resistenza meccanica; 
- * S è l'ampiezza della sezione del cavo, in mm2; 
- * Kr è un coefficiente maggiorativo che varia dal 2% al 5% per le   linee aree e fino al 20% per le linee in cavo 
  - Xl (Ll) - induttanza di servizio di linea: considera gli   effetti di auto e mutua induzione tra i cavi stesi in parallelo: 
   in [ H / Km]*10-3 dove in [ H / Km]*10-3 dove
- * D è la distanza tra i conduttori; 
- * d è il diametro dei   conduttori 
- * K è il contributo dato dal campo interno al conduttore e dipende   dalla struttura del cavo (liscio o cordato) 
  - Cl - capacità di   linea; considera il campo elettrostatico tra i conduttori e   tra i conduttori ed il terreno (effetto predominante) che si genera a causa di   un imperfetto isolamento del dielettrico: 
   in [μ F / Km] in [μ F / Km]
  - Gl - conduttanza di linea; considera l'effetto di   conduzione superficiale del cavo a causa di un non perfetto isolamento. Può   accadere che - soprattutto in caso di umidità - si abbassi il valore del   dielettrico e si generino delle scariche localizzate intorno al cavo di colore   bluastro e rumorose che causano una dissipazione di energia (effetto corona). 
Nelle linee a media e bassa tensione questi ultimi due effetti sono   trascurabili, ne consegue che il circuito equivalente è dato solo dalla serie di   Rl e Xl. Si può quindi definire per una linea con una data lunghezza "L" la   resistenza e l'induttanza globale del cavo:  e
 e  .
.
Con questi due valori in bt e MT è possibile definire la caduta   di tensione industriale per una linea trifase:
   
dove ΔV è la differenza tra la tensione di partenza e di arrivo della   linea, I è la corrente che fluisce, φ è lo sfasamento tra corrente   e tensione di fase in arrivo.
Materia oscura 
Vedi articolo.
  Meeccanica quantistica 
  Vedi articolo
    Media tensione (MT) 
  E’ una tensione nominale tra le fasi  superiore a 1 kV e uguale o inferiore a 35 kV.
  Mercato elettrico 
  L’insieme del mercato del giorno prima  dell’energia, del mercato di aggiustamento e del mercato per i servizi di dispacciamento.
   Mercato interno per l'energia 
  
   La creazione di un vero mercato interno dell'energia è un obiettivo   prioritario dell'Unione europea (UE). L'esistenza di un mercato interno   dell'energia competitivo è uno strumento strategico sia per offrire ai   consumatori europei la scelta tra vari fornitori di gas e di elettricità a   prezzi adeguati che per permettere l'accesso al mercato a tutte le imprese, in   particolare alle imprese più piccole e alle imprese che investono nelle energie   rinnovabili. Si tratta inoltre di creare un quadro che favorisca il   funzionamento del meccanismo di scambio delle quote di emissione di CO2. La   realtà del mercato interno dell'energia si basa soprattutto sull'esistenza di   una rete energetica europea sicura e coerente e, di conseguenza, sugli   investimenti realizzati nelle infrastrutture. Un mercato veramente interconnesso   contribuisce alla diversificazione e, quindi, alla sicurezza degli   approvvigionamenti. Comunicazione della Commissione al Consiglio e al Parlamento europeo,   del 10 gennaio 2007, "Prospettive del mercato interno del gas e   dell'elettricità" [COM(2006)   841 definitivo].
  Mercato libero 
  Ambito in cui operano in regime di concorrenza produttori e grossisti di energia   elettrica sia nazionali che esteri per fornire energia elettrica ai clienti   idonei. 
  Mercato vincolato 
  Ambito del mercato dell'energia elettrica per la fornitura ai clienti finali   che, non rientrando nella categoria dei clienti idonei, possono stipulare i   relativi contratti esclusivamente con il distributore che presta il servizio   nell'area territoriale dove è localizzata l'utenza di detti soggetti. Il prezzo   di acquisto dell'energia elettrica, in questo contesto, è unico a livello   nazionale ed è regolamentato dall'Autorità per l'Energia Elettrica e il Gas.
  Microgenerazione 
  La differenza principale tra i sistemi a microcogenerazione e i loro parenti   su larga scala sono i parametri che ne guidano l'operatività. In molti casi i   sistemi CHP industriali generano principalmente energia elettrica e il calore è   un utile sotto-prodotto. Al contrario i sistemi di micro-CHP, che funzionano in   case o piccoli edifici commerciali, producono principalmente calore generando elettricità come   sotto-prodotto. A causa di questo modello operativo e della domanda fluttuante   delle strutture per quanto riguarda l'energia elettrica, i sistemi a   microcogenerazione spesso producono più elettricità di quella che viene   usata. Tali sistemi ottengono molti dei loro risparmi, esercitando quindi attrattiva   sui consumatori, attraverso un modello di "generazione e rivendita" o "scambio sul posto"   in cui l'energia generata in eccesso rispetto ai bisogni casalinghi viene   rivenduta all'azienda elettrica. Questo sistema è efficiente perché l'energia   usata viene distribuita e usata istantaneamente nella rete elettrica. Le   perdite principali avvengono nella trasmissione dalla fonte al consumatore,   mantenendosi comunque inferiori alle perdite che si avrebbero accumulando   localmente l'energia o generando corrente a meno dell'efficienza massima del   sistema a microcogenerazione. Quindi, da un punto di vista prettamente tecnico,   lo scambio sul posto è molto efficiente. Un altro punto positivo per il net-metering (altro termine per   descrivere lo "scambio sul posto") è il fatto che è molto semplice da   configurare. Il contatore   elettrico dell'utente viene reso in grado di registrare anche l'energia in   uscita dalla casa, oltre a quella in entrata. Per una rete con relativamente   pochi utenti dotati di micro-CHP non sono necessari cambiamenti ad essa. Inoltre   negli Stati   Uniti molte leggi federali e statali impongono alle aziende elettriche di   compensare chiunque dia energia alla rete. Dal punto di vista di tali aziende   queste regole presentano carichi operazionali e tecnici oltre che   amministrativi. Di conseguenza la maggior parte delle aziende elettriche   compensano i contribuenti solamente con uno sconto pari o inferiore alla   bolletta (non pagando quindi un eventuale surplus). Mentre questo schema di   compensi potrebbe sembrare onesto ad un primo sguardo, rappresenta solamente un   risparmio per l'utente per non aver acquistato energia dal fornitore e non un   guadagno completo dal sistema di microcogenerazione. Quindi, dal punto di vista   degli utenti in possesso di sistemi di micro-CHP il net-metering non è   l'ideale. Mentre il net-metering è un sistema molto efficiente per utilizzare l'energia   in eccesso generata da un microcogeneratore, non è immune ai denigratori. Questi   ultimi portano alcune considerazioni a sostegno delle loro ipotesi: mentre un   generatore principale di corrente nella rete elettrica è una grossa centrale   commerciale, i generatori del net-metering "spillano" energia verso la rete in   modo casuale e imprevedibile. Tuttavia l'effetto è minimo se vi sono soltanto   una piccola percentuale di clienti che generano elettricità e ognuno di loro ne   genera una piccola quantità. Quando viene acceso un forno o una stufa elettrica   viene utilizzato circa lo stesso quantitativo di elettricità da rete che viene   prodotta dal generatore casalingo. L'effetto diverrebbe dunque evidente se vi   fosse una larga percentuale di case con sistemi di generazione. La coordinazione   tra i sistemi di generazione nelle case e nel resto della rete diverrebbe   necessaria per un uso affidabile e per evitare danni alla rete stessa.
  Misura dell’energia elettrica 
  È l’attività di misura finalizzata all’ottenimento  di misure dell’energia elettrica in un punto di immissione, in un punto di prelievo o in un punto di interconnessione.
 Modulo fotovoltaico (o pannello fotovoltaico)  
  Un modulo fotovoltaico è un dispositivo in grado di convertire l'energia solare direttamente in energia elettrica mediante effetto   fotovoltaico ed è impiegato come generatore di corrente quasi puro in un impianto   fotovoltaico. Può essere meccanicamente preassemblato a formare un pannello fotovoltaico, pratica caduta in disuso con il progressivo   aumento delle dimensioni dei moduli, che ne hanno quindi incorporato le   finalità. Può essere esteticamente simile al pannello solare termico, ma ha scopo e   funzionamento profondamente differenti. Di molti materiali impiegabili per la costruzione dei moduli fotovoltaici, il   silicio è in assoluto il più   utilizzato. Le tecnologie di realizzazione più comuni sono: moduli cristallini. 
  - Silicio monocristallino, in cui ogni cella è realizzata a partire da   un wafer la cui struttura cristallina è omogenea (monocristallo), opportunamente drogato in modo da realizzare una   giunzione p-n; 
  - Silicio policristallino, in cui il wafer di cui sopra non è   strutturalmente omogeneo ma organizzato in grani localmente ordinati   (policristallo).
I moduli in silicio mono o policristallini rappresentano la   maggior parte del mercato. Entrambe queste tecnologie sono costruttivamente   simili, e prevedono che ogni cella fotovoltaica sia cablata in superficie con   una griglia di materiale conduttore che ne canalizzi gli elettroni. Ogni singola   cella viene connessa alle altre mediante ribbon metallici, in modo da   formare opportune serie e paralleli elettrici. Sopra una superficie posteriore di supporto, in genere realizzata in un   materiale isolante con scarsa dilatazione termica, come il vetro temperato o un polimero come il tedlar,   vengono appoggiati un sottile strato di acetato di vinile (spesso indicato con la   sigla EVA), la matrice di moduli preconnessi mediante i già citati ribbon, un secondo strato di acetato e un materiale trasparente che funge   da protezione meccanica anteriore per le celle fotovoltaiche, in genere vetro   temperato. Dopo il procedimento di pressofusione, che trasforma l'EVA in mero   collante inerte, le terminazioni elettriche dei ribbon vengono chiuse in   una morsettiera stagna generalmente fissata alla superficie di sostegno   posteriore, e il "sandwich" ottenuto viene fissato ad una cornice in alluminio, che sarà utile al   fissaggio del pannello alle strutture di sostegno atte a sostenerlo e orientarlo   opportunamente verso il sole. Le prestazioni dei moduli fotovoltaici sono suscettibili di variazioni anche   sostanziose in base:
  - al rendimento dei materiali; 
- alla tolleranza di fabbricazione percentuale   rispetto ai valori di targa; 
- all'irraggiamento a cui le sue celle sono   esposte; 
- all'angolazione con cui questa giunge rispetto alla sua superficie; 
- alla temperatura di   esercizio dei materiali, che tendono ad "affaticarsi" in ambienti caldi; 
- alla composizione dello spettro di luce. 
Per motivi costruttivi, il rendimento dei moduli fotovoltaici è in genere   inferiore o uguale al rendimento della loro peggior cella. Con rendimento si intende la percentuale di energia captata e   trasformata rispetto a quella totale giunta sulla superficie del modulo, e può   essere considerato un indice di correlazione tra watt erogati e superficie occupata, ferme restando tutte   le altre condizioni. Alcuni moduli, per uso aerospaziale, hanno rendimenti nominali che   raggiungono anche il 40%, e sono prodotti con materiali rari e costosi ed   altamente tossici; valori tipici riscontrabili nei prodotti commerciali a base   silicea si attestano intorno al:
  - 16% nei moduli in silicio monocristallino; 
- 13% nei moduli in silicio policristallino; 
- 10% nei moduli in silicio microsferico; 
- 8% nei moduli in silicio amorfo. 
Ne consegue che, ad esempio, a parità di produzione elettrica richiesta, la   superficie occupata da un campo fotovoltaico amorfo sarà più che doppia rispetto   ad un equivalente campo fotovoltaico cristallino. A causa del naturale affaticamento dei materiali, le prestazioni di un   pannello fotovoltaico comune diminuiscono di circa un punto percentuale su base   annua. Per garantire la qualità dei materiali impiegati, la normativa obbliga   una garanzia di minimo due anni sui difetti di fabbricazione anche sul calo di   rendimento del silicio nel tempo, questa arriva minimo 20 anni. La garanzia oggi   nei moduli di buona qualità è del 90% sul nominale per 10 anni e dell'80% sul   nominale per 25 anni. I moduli fotovoltaici odierni hanno una vita stimata di 80 anni circa, anche   se è plausibile ipotizzare che vengano dismessi dopo un ciclo di vita di 35-40   anni, a causa della perdita di potenza dei moduli. La tolleranza di fabbricazione è un dato percentuale (generalmente variabile   dal ±3% al ±10%) che ogni produttore dichiara in relazione ai propri standard   qualitativi di produzione. Tanto minore è la tolleranza dichiarata, tanto più   stabili e predicibili saranno le prestazioni elettriche del modulo, a pari   condizioni di utilizzo. Nella maggior parte dei casi, i produttori realizzano più versioni dello   stesso modulo, distinte in base alla potenza nominale, pur realizzandoli con le   medesime celle, che vengono preventivamente raggruppate in famiglie   prestazionalmente simili. L'obiettivo dell'operazione è gestire in modo più   accorto possibile le celle elettricamente peggiori, che potrebbero inficiare le   prestazioni dell'intero modulo. In quest'ottica quindi, tanto più numerose sono le famiglie di celle   uniformi, tanto minore potrebbe essere la tolleranza di fabbricazione garantita. Nella realtà di mercato, tuttavia, data la curva di   Gauss che descrive la distribuzione statistica della qualità   di tutte le celle fotovoltaiche di una data partita produttiva, le linee di   separazione tra gruppi di moduli simili si ampliano a volte fino a costituire   fasce piuttosto ampie. Il produttore può così gestire la parte di produzione all'interno di queste   fasce:
  - declassando il prodotto in questione, per considerarlo entro la tolleranza   positiva del modulo inferiore, con il risultato di perdere profitto; 
- innalzando il prodotto, per considerarlo entro la tolleranza negativa del   modulo superiore, con il risultato di marginalizzare di più a discapito della   qualità effettiva del prodotto. 
Dal punto di vista commerciale,   il produttore si garantisce la liceità dell'operazione dichiarando una   tolleranza di fabbricazione più ampia del necessario rispetto alle potenze   nominali dei vari moduli realizzati. L'immediato effetto che questa pratica   comporta è la ricaduta di cospicue quantità di moduli all'interno delle citate   fasce a cavallo di due o più tolleranze di fabbricazione. Alla luce di ciò, i moduli fotovoltaici qualitativamente migliori sono da   ricercarsi tra quelli che combinano:
  - una tolleranza negativa stretta (quella positiva può considerarsi   trascurabile); 
- una nulla o limitata area di sovrapposizione tra le fasce di tolleranza   delle varie potenze dello stesso modulo. 

In figura è mostrata una simulazione con tolleranza ±5%. Sono presenti evidenti aree di   sovrapposizione tra moduli diversi.
L'artifizio della tolleranza più ampia del necessario è una tecnica impiegata   solo da produttori minori, a causa della sua facile individuazione (basta una brochure con la lista   dei prodotti trattati e una calcolatrice) e del sospetto che inevitabilmente   farebbe sorgere nei confronti del produttore. I moduli fotovoltaici sono accomunati dal comportamento elettrico simile a   quello di un generatore di corrente quasi puro,   ovvero erogano energia con differenza di potenziale quasi   costante anche al variare delle condizioni atmosferiche o del grado di incidenza   dei raggi solari. La pratica comune di classificare i prodotti in commercio in   12, 18 o 24 V non deriva dalla tensione al suo punto di massima efficienza,   ma dalla possibilità di collegarvi una batteria ricaricabile con analogo   voltaggio nominale. I moduli fotovoltaici, se impiegati in un impianto fotovoltaico connesso alla rete all'interno dell'Unione   Europea, devono obbligatoriamente essere certificati in base alla normativa IEC 61215, che ne determina le caratteristiche sia elettriche che   meccaniche. Tra i test più importanti si cita quello per determinarne la potenza in condizioni   di insolazione standard, espressa in watt picco (Wp). I moduli fotovoltaici in silicio cristallino più comuni hanno dimensioni   variabili da 0,5 m² a 1,5 m², con punte di 2,5 m² in esemplari per grandi   impianti. Non vi è comunque particolare interesse a costruire moduli di grandi   dimensioni, a causa delle grosse perdite di prestazioni che l'intero modulo   subisce all'ombreggiamento (o malfunzionamento) di una sua singola cella. La potenza più comune si aggira intorno ai 150 Wp a 24 V, raggiunti in genere   impiegando 72 celle fotovoltaiche. La superficie occupata dai modelli   commerciali si aggira in genere intorno ai 7,5 m²/kWp, ovvero sono necessari   circa 7,5 metri quadrati di superficie per ospitare pannelli per un totale   nominale di 1.000 Wp.
    Modulo fotovoltaico a film sottile  
  In sostituzione della cella costituita da un wafer di silicio drogato, da   poco, è entrata nel mercato la tecnologia del film sottile. Attualmente diversi material sono in competizione per i film sottili: 
  - a-Si (silicio amorfo) o a-SiGe. Giova notare che il silicio amorfo assorbe   la luce molto più efficacemente del silicio cristallino, per questo motivo lo   spessore della cella in a-Si può essere cento volte minore dello spessore della   cella in Si cristallino; 
- a-Si/µ-Si (giunzione ibrida silicio amorfo/ silicio microcristallino). I due   materiali, entrambi semiconduttori, hanno caratteristiche complementari rispetto   all’assorbimento della radiazione solare, pertanto, la loro efficienza di   conversione (da radiazione a energia elettrica) è maggiore di quella del a-Si; 
-  CIS (rame, indio, diseleniuro)/CdS; 
-  CdTe (tellururo di cadmio)/CdS. 
Potenzialmente la tecnologia del film sottile si presenta con svariati   importanti vantaggi.
  - Lo strato assorbente può essere prodotto in spessori molto ridotti   tipicamente 2-3µm, contro i 200-300µm del wafer di silicio. Questo consente   notevoli risparmi sul costo della materia prima ed elimina i problemi della   reperibilità. 
- La tecnologia consente di ridurre le fasi della lavorazione, con la   realizzazione, in un unico processo, di tutte le celle del pannello e della   relativa connessione, eliminando la costosa fase del montaggio delle celle e   della loro connessione elettrica tipica della tecnologia Si-wafer-based. 
- Il grado di automazione del processo di produzione dei moduli è maggiore   rispetto alla tecnologia Si-wafer-based. 
- Gli strati che costituiscono le celle possono essere depositati su materiali   poveri, come vetro comune, ma anche fogli di plastica o di metallo. 
- Con una produzione di pannelli non inferiore a 50 MW/anno il costo del Wp   può essere molto contenuto, pertanto, l’energy pay back time degli   impianti fotovoltaici può essere sensibilmente inferiore a quello per impianti   Si-wafer-based. 
- Si possono produrre moduli rigidi o flessibili. 
Gli svantaggi più significativi sono rappresentati:
  - Dall’entità degli investimenti necessari per la produzione. A parità di MW   installati, un impianto a film sottile richiede investimenti circa dieci volte   maggiori di un impianto per moduli Si-wafer-based. D'altra parte gli operatori   sostengono che la soglia minima per ottenere EBIT soddisfacenti dalla produzione   dei moduli a film sottile debba essere di almeno 50 MW. 
- Dal momento dell'ordine di acquisto degli impianti, al momento dell'avvio   della produzione a regime occorrono dai due ai tre anni. Tempi circa tre volte   più lunghi di quelli necessari per una fabbrica di pannelli Si-wafer-based. 
- Dai più bassi valori dell'efficienza di conversione che obbligano, a parità   di potenza installata, ad avere superfici di captazione dell'energia solare   maggiori, e quindi, a parità di potenza di picco, un impianto a film sottile   occupa maggiore spazio. 
Mofete  
  Vedi articolo.
  Mono oraria  
  Tipologia di opzione tariffaria dei clienti elettrici che pagano allo stesso   modo l'energia consumata nell'arco della giornata, indipendentemente dalle fasce   orarie o dai giorni della settimana.
Motore a combustione esterna  
  I motori a combustione esterna (MCE) sono una tipologia di motori nei quali il combustibile viene utilizzato per riscaldare un   fluido di lavoro, attraverso il quale si realizza la conversione dell'energia   termica in lavoro meccanico. Appartengono a questa categoria il motore a vapore e il motore Stirling. A parità di potenza, un motore a combustione esterna è in genere più   ingombrante e pesante di un motore a combustione interna.   Questo perché contiene uno scambiatore di calore utilizzato per   riscaldare il fluido di lavoro. Per contro, può essere più efficiente ed è meno   critico relativamente al carburante da utilizzare. Inoltre la temperatura e la   pressione relativamente basse della combustione portano ad una minor formazione   di inquinanti, quali gli ossidi di azoto.La turbina a   vapore è un buon esempio di motore a combustione esterna. In questa macchina   il calore ottenuto bruciando il combustibile, oppure generato da un reattore nucleare,   viene utilizzato per portare dell'acqua allo stato di vapore. All'interno della turbina l'energia di pressione   posseduta dal vapore viene trasformata in energia cinetica ed utilizzata per far   muovere le palette della turbina
  Motore a combustione interna  
  Il motore a combustione interna (MCI) o motore endotermico è un particolare motore termico nel quale,   attraverso la combustione di una miscela composta da un carburante (benzina,   gasolio, metano, GPL, ecc...) e un comburente (aria) all'interno di una camera   di combustione, si produce   calore trasformato poi in lavoro meccanico, mentre il prodotto della   combustione, viene  espulso attraverso un impianto di scarico. I motori a combustione interna vengono classificati in base al sistema di accensione utilizzato per provocare   la combustione in motori ad accensione   comandata o ad   accensione spontanea. Nei motori ad accensione comandata di solito   l'accensione viene comandata attraverso una scintilla ad alta tensione che   scocca nella miscela aria-combustibile all'interno del cilindro. La scintilla   viene prodotta attraverso una bobina alimentata da una batteria che può essere ricaricata durante   il funzionamento attraverso un alternatore trascinato dal motore. Inoltre per   l'avvio del motore in condizioni di temperatura esterna e del motore stesso   relativamente basse, si utilizza un sistema che serve a garantire un avvio piu   facile, chiamato starter Nei motori ad accensione   spontanea (detti anche motori Diesel) il combustibile viene iniettato   nell'aria compressa nei cilindri del motore e la combustione si innesca a causa   delle condizioni di pressione e di temperatura dell'aria stessa. L'energia dei prodotti di combustione, i gas   combusti, è superiore all'energia originale dell'aria e del carburante (che   avevano una maggiore energia chimica) e si manifesta attraverso   un'elevata temperatura e pressione che vengono trasformate in lavoro meccanico dal motore. Nei motori   alternativi, è la pressione dei gas combusti a spingere i pistoni all'interno   dei cilindri del motore. Recuperata l'energia, i gas combusti vengono eliminati (spesso attraverso una   valvola di scarico) talvolta dopo essere passati attraverso una turbina a gas che recupera   una piccola quantità di energia, comunque sufficiente a comprimere l'aria   comburente. Al termine di questa fase il pistone torna nella posizione di punto morto superiore. Tutto il calore non trasformato in lavoro deve   essere eliminato dal motore attraverso un sistema   di raffreddamento ad aria o a liquido
    Motore asincrono  
 Il motore asincrono è un tipo di motore elettrico in corrente   alternata in cui la frequenza di rotazione non è uguale o un sottomultiplo   della frequenza di rete, ovvero   non è "sincrono" con essa; per questo si distingue dai motori sincroni. Il   motore asincrono è detto anche motore a induzione. Questo motore può essere utilizzato come alternatore con o senza l'utilizzo di condensatori   a seconda se viene collegato alla rete o no, ma solo una minima parte degli   alternatori è di questo tipo dato il suo minore rendimento

 Animazione di un motore asincrono a gabbia di scoiattolo.
Motore a vapore  
  Un motore a vapore è un'apparecchiatura atta a produrre energia   meccanica utilizzando, in vari modi, vapore d'acqua. In particolare trasforma   tramite il vapore energia termica in   energia meccanica. Il calore è in genere prodotto con il carbone, ma può anche provenire da legna, idrocarburi o reazioni nucleari. Già nell'antichità si racconta di esperimenti atti a sfruttare l'espansione dei   composti dovuta al cambiamento da fase liquida a fase gassosa: in particolare la macchina di Erone, una sfera cava   di metallo riempita d'acqua, con bracci tangenziali dotati di foro di uscita:   quando si scaldava l'acqua, questa vaporizzava e il vapore usciva dai fori, facendo   ruotare la sfera stessa.In tempi più recenti, le prime applicazioni del vapore si possono far   risalire agli esperimenti di Denis Papin ed alla sua pentola a   pressione del 1679 da cui partì per   concepire idee su come sviluppare l' utilizzo del vapore. Le successive   applicazioni si sono avute all'inizio del XVIII secolo, soprattutto per il pompaggio   dell'acqua dalle miniere, con il sistema ideato nel 1698 da Thomas Savery utilizzando il vuoto creato dalla condensazione del vapore   immesso in un recipiente (che permetteva di sollevare acqua fino a circa 10 m di   altezza), e in seguito, grazie all'invenzione del sistema cilindro-pistone   (probabilmente dovuta a Denis   Papin), convertendo in movimento meccanico, in grado di generare lavoro,   l'energia del vapore. Il primo esempio di applicazione industriale di questo   concetto è la macchina di Newcomen, del 1705, che era però grande, poco potente e   costosa, quindi anch'essa veniva in genere usata solo per l'estrazione di acqua   dalle miniere. Solo più tardi però, grazie all'invenzione del condensatore   esterno, della distribuzione a cassetti e del meccanismo biella-manovella, tutte   attribuite a James Watt a   partire dal 1765, si e potuti passare da   applicazioni sporadiche ad un utilizzo generalizzato nei trasporti e nelle   industrie. La macchina di Watt riduceva costi, dimensioni e consumi, e aumentava   la potenza disponibile. Dal primo   modello da 6CV si è   passati in meno di 20 anni a locomotive da 600CV. Il motore a vapore, consentendo potenze assai maggiori di quelle fino ad   allora disponibili (un cavallo da corsa produce massimo 14-15 cavalli-vapore, o   circa 8 kW, ma solo per brevi tratti, mentre un cavallo lavorando una giornata   non produce più di 1CV), ha svolto un ruolo importante nella rivoluzione   industriale. Lo sviluppo del motore a vapore ha facilitato l'estrazione ed il trasporto   del carbone, che a sua volta ha aumentato le potenzialità del motore a   vapore. La seconda applicazione a cui fu usato il motore a vapore fu per muovere il mantice nelle fonderie nel 1776, mentre dal 1787 fu usato anche nelle cotonerie per filare. L' incidenza del motore a vapore è evidente: la produzione mondiale di   carbone passa da 6.000.000 di t del 1769 ai 65.000.000 di t del 1819; il ferro   (richiesto per l' acciaio) dalle 40.000 t del 1780 alle 700.000 t del 1830. Nel 1830 vi erano 15.000 motori a vapore   in Inghilterra, tra cui 315 navi.
Poiché il vapore d'acqua si ottiene invariabilmente   somministrando all'acqua energia   in forma termica, una parte essenziale del sistema che comprende il motore a   vapore è il generatore di vapore, o caldaia. Il vapore viene poi inviato al motore, che può   essere di due tipi fondamentali: alternativo o rotativo. Si usa di solito (e   impropriamente) la locuzione motore a vapore per i soli motori   alternativi, mentre quelli di tipo rotativo vengono definiti turbine. In quello alternativo, in genere, la ruota azionata muove le   valvole che consentono di sfruttare i due lati di ogni pistone, così in ogni   tempo avviene un'espansione biolaterale, (mentre i motori a   combustione interna hanno in genere un'espansione ogni 4 tempi). A partire   dalla seconda metà del 1800 la quasi totalità dei motori a vapore ha utilizzato   due, tre e anche quattro cilindri in serie (motori a doppia   espansione e tripla   espansione, vedi immagine); i diversi stadi lavorano con pressioni di   vapore decrescenti in modo da sfruttare meglio la pressione degli scarichi degli   stadi precedenti, che contengono ancora una certa potenza. In particolare, la   soluzione a tripla espansione fu quella universalmente adottata da tutte le navi   della seconda metà dell'800 e dei primi anni del '900. Per esempio il   transatlantico Titanic era equipaggiato con due motori a vapore a   tripla espansione (uno per ciascuna delle due eliche laterali) a quattro   cilindri, uno ad alta pressione, uno a pressione intermedia e due a bassa   pressione. Invece l'elica centrale era collegata ad una turbina a vapore mossa dal vapore a bassissima pressione scaricata dai due motori alternativi.   Proprio la soluzione a turbina (adottata a cominciare dalle navi militari a   partire dal 1905) avrebbe soppiantato completamente in campo marino i motori   alternativi prima di essere a sua volta soppiantata dai motori a combustione   interna e dalle turbine a gas. Le turbine a vapore rimangono in uso soprattutto   nelle centrali elettriche come forza motrice per azionare gli alternatori   trifase. Di fatto oggi il motore a vapore è stato quasi completamente sostituito dai motore a combustione interna, che   è più compatto e potente e non richiede la fase di preriscaldamento (per mettere la caldaia in pressione), che si traduce in un ritardo prima di   poter utilizzare il motore stesso.

Motore a tripla espansione semplificato. Il vapore ad alta pressione (rosso) entra dalla caldaia, passa attraverso il motore ed è rilasciato al condensatore come vapore a bassa pressione (blu).
   Motore sincrono  
  Il motore sincrono, conosciuto anche come motore vettoriale o motore Rowan è un tipo di motore elettrico in corrente   alternata in cui il periodo di rotazione è sincronizzato con la frequenza della tensione di   alimentazione, solitamente trifase, questo motore può essere utilizzato   come alternatore e la   maggioranza degli alternatori è di questo tipo.È costituito da un rotore (parte rotante solidale all'albero) su cui   sono presenti diversi poli magnetici di polarità alterna creati da magneti   permanenti o elettromagneti alimentati in corrente continua (detta corrente di eccitazione), e da uno statore su cui sono presenti   gli avvolgimenti del circuito di alimentazione. Le espansioni polari dello   statore creano un campo   magnetico rotante che trascina le espansioni polari del rotore. La frequenza   di rotazione dipende dalla frequenza di alimentazione (ad es. in Italia è 50 Hz)   e dal numero di terne di espansioni polari presenti nel motore. L'avviamento di questo tipo di motore è relativamente complesso. A motore   fermo, l'applicazione della tensione alternata fa si che il rotore, per effetto   dell'inerzia non abbia il tempo di   seguire il campo magnetico rotante, rimanendo fermo. Il motore viene quindi   inizialmente portato alla velocità di rotazione per mezzo di un motore asincrono,   quindi, dopo avere scollegato quest'ultimo, viene collegata la tensione di   alimentazione ed inserito il carico meccanico utilizzatore. Un'altra tecnica di   avviamento sfrutta la possibilità di fare funzionare temporaneamente come   asincroni motori appositamente realizzati, quindi passare al modo sincrono. Se   una volta a regime la rotazione viene frenata o accelerata oltre un certo   limite, si innesca una serie di oscillazioni che portano il motore al blocco e   possono provocare forti sovracorrenti tali da danneggiare il motore. Per questo   motivo va prevista una protezione dalle sovracorrenti, ad esempio con un interruttore magnetotermico di   protezione.

Animazione di uni motore sincrono trifase.
 Motore Stirling  
  Il motore Stirling è un motore a combustione esterna,   inventato da Robert   Stirling nel 1816. L’invenzione del Motore Stirling detto anche “motore ad aria calda di   Stirling” è una evoluzione dei motori ad aria calda preesistenti, che all’inizio   del 1800 competevano con il motore a vapore per fornire energia meccanica   ai macchinari industriali (in opifici e miniere) della prima rivoluzione   industriale in Inghilterra. In particolare l’invenzione di Stirling riguardò   l’adozione di un ricuperatore di calore che effettivamente risultò essere il   dispositivo adatto per migliorarne in modo notevole il rendimento del   motore. La competizione tra motore ad aria e quello a vapore aveva motivo nel   tentativo di avere un’alternativa al motore a vapore stesso che, nelle sue prime   realizzazioni, pur avendo caratteristiche superiori di quello ad aria, a causa   dell’utilizzo di materiali tecnologicamente scadenti allora a disposizione era   estremamente pericoloso per le devastanti esplosioni delle caldaie. Dopo una   prima fase di applicazione con buon successo del motore Stirling di dimensioni   commerciali, il perfezionamento del motore a vapore con materiali più affidabili   rese lo Stirling poco conveniente, in conseguenza il suo uso fu abbandonato. Una seconda applicazione del motore Stirling si ebbe con lo sviluppo della   elettronica e l’uso dei primi apparecchi   radio e lo sviluppo della aviazione prima del 1960. La Philips (industria olandese di produzione di apparecchi   radio) per alimentare gli apparecchi radio-trasmittenti e riceventi di sua   costruzione realizzò una piccola unità Stirling di generazione elettrica   mediante combustione di petrolio, utile per alimentare appunto tali apparecchi   in postazioni remote e prive di alimentazione elettrica. L’apparecchio   realizzato fu il Philips MP1002CA (detto Bungalow Set) con una potenza di circa   200Watt; la tecnologia usata fu quella allora all’avanguardia con uso di leghe   leggere (1950), ottenendo un buon compromesso tra praticità e costo. L’esigenza   di tale generazione elettrica era particolarmente sentita per alimentare gli   apparecchi radio (allora dotati di grosse ed onerose valvole   termoioniche), necessari per il collegamento stabile con i campi di   aviazione della rete aerea civile che era in costituzione (in prima fase per il   servizio postale) in luoghi remoti e senza attrezzature. Con l’adozione del tranistor nei circuiti   elettronici, a partire dal 1960, fu sufficiente l’alimentazione delle radio con   potenze elettriche molto più esigue, ottenute con le semplici batterie   elettriche di accumulatori di piccola dimensione, che davano comunque   adeguate autonomie, quindi l’uso del motore Stirling fu abbandonato. Altre applicazioni sono state realizzate in seguito, e sviluppate attualmente   con motori di diversa taglia, ottenendo discreti o buoni successi tecnici, ed in   qualche caso anche commerciali per mercati di nicchia. Il motore funziona a ciclo chiuso utilizzando un gas come fluido termodinamico (solitamente aria, azoto oppure elio o idrogeno nelle versioni ad alto rendimento). Quando è   raggiunta una opportuna differenza di temperatura tra il suo punto caldo ed il   punto freddo ed è opportunamente avviata, si innesca una pulsazione ciclica, di   norma trasformata in moto alternato dei pistoni, che si autosostiene. Una particolarità di questo motore è quella di funzionare senza fare ricorso   a valvole. Le sole parti in movimento sono il pistone ed il dislocatore che   agiscono collegati ad un albero motore con una coppia di gomiti sfasati tra loro   di 90 gradi. È probabilmente uno dei più interessanti motori a combustione esterna per la   sua bassa manutenzione, la sua silenziosità e la possibilità teorica di   raggiungere rendimenti vicini a quello teorico per cicli termodinamici. È possibile utilizzare la luce solare   concentrata, ad esempio tramite un cilindro parabolico, per produrre la   differenza di temperatura necessaria. La scoperta di nuovi materiali tecnologici costruttivi in grado di aumentare   la differenza di temperatura necessaria al funzionamento, nuovi fluidi   termodinamici e le problematiche ambientali degli ultimi anni hanno dato nuovi   impulsi alla realizzazione di motori Stirling di largo impiego. Ad esempio la   realizzazione di centrali elettriche che impiegano sali fusi e motori Stirling   per la produzione di grandi quantità di energia elettrica è tutt'ora in fase di   studio e realizzazione. Gli esemplari più piccoli sono spesso oggetto di curiosità più che utilità   pratica. Queste realizzazioni in materiali particolarmente hi-tech sono capaci   di sfruttare una differenza termica esigua e quindi in grado di funzionare col   calore di una mano, di una tazza di caffè o con la luce normale del sole anche   in inverno. Addirittura, se appoggiati su un pezzo di ghiaccio, possono   sfruttare il calore ambientale come sorgente calda. E' evidente che con   dislivelli limitati di temperatura anche se si ottengono buoni rendimenti   teorici le potenze in gioco sono trascurabili, ed il rapporto potenza/peso è   comunque sfavorevole per potenze significative, almeno nelle condizioni attuali   di mercato energetico.

  Animazione di un motere Stirling 
Motore Wankel  
  Il motore Wankel, inventato da Felix Wankel nel 1950, è un motore a combustione interna, il quale   viene alimentato da un impianto d'alimentazione e che scarica i   prodotti esauriti (gas di scarico) tramite un impianto di scarico, Il motore è di tipo rotativo: il principio di funzionamento vede un pistone a tre lobi che ruota   eccentricamente intorno all'albero motore, generando con il suo movimento le   fasi di aspirazione - compressione - scoppio - scarico.Le prime vetture che adottarono questo tipo di motore furono le NSU, tra cui la Ro 80. Tra il ’62 e il 1970, la   Mercedes Benz realizzò una decina di prototipi tra cui le famose C111 a tre e   quattro rotori (realizzate tra il 1969 e il 1970) e una 350 SL Quadrirotore   utilizzata normalmente da Wankel stesso. Alla Mercedes si affiancò la GM, con i   prototipi Chevrolet e la American Motors, che realizzò una versione rotativa   della sua Pacer. In campo motociclistico il propulsore rotativo fu utilizzato   sporadicamente dalla stessa NSU, dalla Suzuki (sul modello RE-5) e dalla Norton che riuscì anche ad ottenere delle vittorie in   gare del campionato inglese. I principali problemi riscontrati nell'utilizzo di   vetture fornite di tale motore erano relativi alla durata delle guarnizioni di   tenuta che lavorano in condizioni di pressione elevata. Attualmente, grazie allo sviluppo   della tecnologia dei materiali, la durata di vita di questi propulsori è   notevolmente aumentata, consentendo una maggiore produzione su larga scala. La   casa automobilistica Mazda ormai da quasi   vent'anni porta avanti lo studio e lo sviluppo di motori rotativi ad alte   prestazioni e attualmente monta sulla vettura Mazda RX-8 un birotore denominato "Renesis" di   cilindrata complessiva di 1308 cc, in grado di sviluppare una potenza di 231 cv   (170 KW) a 8200 giri, facendone, a tutt'oggi, l'unica vettura con motore di   derivazione Wankel di serie.

 
  Schema del motore Wankel:
  1 - Ugello di iniezione
  2 - Ugello di scarico
  3 -   Camera esterna
  4 - Camera di combustione
  5 - Ingranaggio centrale
  6 -   Rotore
  7 - Ingranaggio interno
  8 - Albero motore
  9 - Candele di   accensione
   Multioraria  
   Tipologia di opzione tariffaria dei clienti elettrici che pagano l'energia   consumata in modo diverso a seconda delle fasce orarie e dei giorni della   settimana. Le fasce orarie sono state stabilite dalla Delibera dell’Autorità per   l’Energia Elettrica e il Gas 5/04. 
   Neutrini  
   Vedi articolo specifico 
  Nucleare  
  L'espressione energia nucleare  indica   l'energia che viene liberata dalla trasformazione di nuclei   atomici. Ai fini della produzione elettrica, l'unica trasformazione   nucleare che libera energia d'interesse industriale è, almeno per ora, la   fissione, che consiste, in pratica, nella “rottura (fissione) ” di nuclei pesanti, come   quelli di uranio. Se, ad esempio, il nucleo di un isotopo pesante dell'uranio   viene sottoposto a “bombardamento” di neutroni, si scinde in due grossi   frammenti e, in più, produce energia e due-tre neutroni, che a loro volta   possono “bombardare” altri nuclei di uranio innescando una reazione a   catena. Ciò è proprio quanto accade in una centrale nucleare, ove il   “combustibile” (tipicamente costituito da isotopi di uranio) viene sottoposto a   reazioni a catena di fissione nucleare. Il calore prodotto in grande quantità   viene asportato da opportuni sistemi di raffreddamento e trasferito a generatori   di vapore, i quali, a loro volta, azionano convenzionali gruppi turboalternatori   per la produzione di energia elettrica. 
L’impiego dell’energia nucleare   in campo civile ha una storia piuttosto recente, avendo avuto inizio   all’indomani della seconda guerra mondiale. Ed è una storia che potrebbe avere   lunga vita davanti a sé dal momento che le riserve di uranio sono relativamente   abbondanti sul Pianeta. Il suo sviluppo, invece, ha conosciuto una forte   battuta d’arresto nel 1986 a seguito della catastrofe di Chernobyl, che spinse   diversi Paesi a rivedere i propri programmi di sviluppo elettronucleare. In   questo scenario l’Italia fece una scelta ancora più radicale: quella di   rinunciare all’apporto fornito dalle centrali elettronucleari arrestando i tre   impianti che erano in esercizio (Latina, Caorso e Trino Vercellese) e   rinunciando alla realizzazione di un impianto che era in fase avanzata di   costruzione (Montalto di Castro). Nonostante l’evento traumatico di   Chernobyl, numerosi Paesi al mondo non solo non hanno spento le loro centrali   nucleari, come ha fatto l’Italia, ma ne stanno progettando di nuove, sia in   Europa (Francia, Russia e Finlandia) sia in Asia. Attualmente    (2008) sono in esercizio circa 450 impianti nucleari in 31 nazioni per una potenza   elettronucleare installata  di   circa 380 GW. Tale potenza equivale a circa il 6 % della produzione di   energia primaria nel mondo.  In Europa, dove tutti i   principali Paesi sono dotati di centrali elettronucleari, il mix di   generazione elettrica  vede il   nucleare coprire una quota del 32%. Proprio le preoccupazioni ambientali   che ne hanno segnato il cammino sono oggi all’origine di un rinnovato interesse   verso l’opzione nucleare, che si sta manifestando in tutto il mondo e anche nel   nostro Paese. L’assenza di emissioni inquinanti e di anidride carbonica nel   processo di generazione di energia elettrica di una centrale nucleare   rappresenta, infatti, un forte punto a favore verso una fonte che non concorre   all’accumulo in atmosfera di gas climalteranti . In un momento storico in cui i   Paesi dell’Unione Europea sono costretti a fare i conti con i costi derivanti   dal rispetto degli impegni del Protocollo di Kyoto, l’Italia potrebbe pagare un   conto più salato degli altri anche come conseguenza di una scelta che si è   tradotta oggi in uno svantaggio competitivo. La stessa Germania che pure ha   dichiarato che non intende sostituire le sue centrali nucleari via via che   diventeranno obsolete continua a produrre oltre il 30% della sua energia   elettrica da questa fonte e continua a spostare in avanti la data del cosiddetto   phase out. 
Officine elettriche. 
 Parlando di rinnovabili, per officina elettrica, o meglio officina di produzione di energia elettrica, si intende un impianto di produzione di energia da fonti rinnovabili che supera i 20 kW di potenza di picco. Requisito essenziale per gli impianti sopra i 20 kW è che l’impianto da fonti rinnovabili deve produrre almeno in parte per l’autoconsumo. Detto in altri termini: ogni impianto fotovoltaico o da fonti rinnovabili al di sopra dei 20 kW di potenza e installato in modo da permettere l’autoconsumo è sottoposto all’obbligo, all’onere, di denuncia di Officina Elettrica presso l’ufficio dell’Agenzia delle Dogane territorialmente competente. Un impianto fotovoltaico sopra i 20 kW che autoconsuma anche solo l’1% dell’energia prodotta è Officina Elettrica ed è tenuto a presentare denuncia di apertura di officina elettrica presso il competente ufficio territoriale dell’agenzia delle dogane. Perchè questo? Per un motivo molto semplice: le accise, che dovrebbero pagare i produttori di energia elettrica, vengono (come accade per l’IVA) caricate sui consumatori finali. Le accise vengono infatti pagate in bolletta dai consumatori finali in proporzione ai kWh di energia consumati. Nel momento in cui il produttore è anche un consumatore dell’energia da esso stesso prodotta, è tenuto a pagare le accise sull’energia autoconsumata, dovrà quindi essere correttamente registrato presso l’Agenzia delle Dogane. Per questo un impianto che autoconsuma anche solo l’1% dell’energia prodotta è tenuto ad effettuare denuncia di apertura di officina elettrica.
 
Organismi Geneticamente Modificati (OMG). 
 Situazione in Europa, Vedi. 
Ozono troposferico 
Vedi articolo. 
Clicca l'iniziale per trovare la parola cercata
A B C 
D E F 
G H I J K
 L M N O 
 S T U  V W X Y Z 
 
P  Q  R 
 Paradosso di Jevons. 
E' un'osservazione di William Stanley Jevons che affermò che i miglioramenti tecnologici che aumentano l'efficienza con cui una risorsa è usata possono fare aumentare il consumo totale di quella risorsa, invece di farlo diminuire. È chiamato paradosso perché le sue conclusioni vanno contro il senso comune, ma non si tratta in realtà di un paradosso ed è accettato nelle teorie economiche attuali. L'aumento di efficienza si traduce normalmente in una diminuzione di costi che, in genere, aumenta i consumi. Se tale aumento avvenga o meno dipende però dall'elasticità della domanda. Se la domanda è abbastanza rigida, una variazione di prezzo non indurrà sensibili variazioni nel consumo dell'output, e quindi indurrà una diminuzione del consumo dell'input della risorsa. Viceversa se la domanda è elastica, quindi variazioni nel prezzo producono significativi aumenti nel consumo dell'output, ci saranno incrementi anche nell'input. Si tratta di quello che viene chiamato 'effetto rebound'. Il paradosso è enunciato nel libro del 1865, The Coal Question, dove Jevons osservava che il consumo inglese di carbone era cresciuto dopo che James Watt aveva introdotto il motore a vapore (alimentato a carbone), che migliorò notevolmente l'efficienza del precedente motore di Thomas Newcomen. Le innovazioni di Watt resero il carbone una fonte di energia più redditizia, cosa che condusse ad un suo maggiore uso in una vasta gamma di processi produttivi. Il consumo totale di carbone aumentò, anche se nel frattempo la quantità di carbone richiesta per produrre il medesimo lavoro era diminuita. 
Peta 
 
In metrologia, Peta (simbolo P) è un prefisso del sistema di unità SI ed esprime il   fattore 10exp15 cioè 1 000 000 000 000 000.
  Pannelli fotovoltaici
I pannelli fotovoltaici sono costituiti da celle fotovoltaiche (o da moduli fotovoltaici) e consentono di convertire la luce solare direttamente in energia  elettrica. Le celle, che costituiscono i componenti base dei pannelli, sfruttano l'effetto fotovoltaico e hanno  un’efficienza di conversione teorica (da energia solare a energia elettrica) pari al 32 %. In pratica, producendo  celle e pannelli a livello industriale e realizzando con i pannelli un campo fotovoltaico  si possono ottenere efficienze attorno al 15%. Ad esempio, un impianto da 1 kW  di potenza produce, nell’Italia meridionale, circa 1.600 kWh di energia. Questi  pannelli, non avendo parti mobili, necessitano di pochissima manutenzione; in  sostanza vanno solo puliti periodicamente; ogni dieci anni circa vanno  sostituiti gli inverter che trasformano la tensione da continua in alternata.  La durata operativa stimata dei pannelli fotovoltaici è di circa 30 anni. Il limite  degli impianti fotovoltaici è rappresentato dal costo dei pannelli. E’ solo grazie  a una legislazione che prevede incentivi economici all'installazione di impianti  fotovoltaici e la possibilità di vendere, a tariffe agevolate, l'energia prodotta al gestore della  rete di trasmissione, che la Germania  è al primo posto al mondo per la potenza elettrica prodotta da energia solare. Analoghe  iniziative, comunemente note come Conto Energia o Feed-in tariff, sono  state intraprese da diversi stati europei che hanno ratificato il Protocollo di  Kyoto, tra cui anche l'Italia. Per maggiori dettagli vedi la voce moduli fotovoltaici. Giova notare che a volte si confondono i termini pannello e modulo. 

  Due pannelli formati ognuno da 12 moduli fotovoltaici montati su supporti a inseguimento   solare.
Pannelli solari termici
  I pannelli solari o collettori termici possono  essere a circolazione naturale o forzata; i primi utilizzano il moto  convettivo del liquido contenuto nei pannelli per consentirne la circolazione  all'interno del sistema pannello-scambiatore di calore. In questo caso il serbatoio  di accumulo che contiene lo scambiatore di calore deve trovarsi più in alto del  pannello. I sistemi a circolazione forzata, invece, utilizzano una pompa che fa  circolare il fluido all'interno di scambiatore e pannello quando la temperatura  del fluido all'interno del pannello è più alta di quella all'interno del  serbatoio di accumulo. Sistemi di questo tipo sono più complessi dal punto di  vista dei controlli e delle apparecchiature impiegate (pompe, sensori di  temperatura, valvole a tre vie, centraline di controllo), ma consentono di  posizionare il serbatoio di accumulo, anche di grandi dimensioni, praticamente  dove si vuole, ad esempio a terra e non sul tetto dove problemi di peso potrebbero  renderne difficile la collocazione.

  Schema di un pannello solare:
  1)Valvola
  2)Serbatoio di   accumulo
  3)Condotto di inserimento
  4)Pannello di   assorbimento
 5)Condotto di inserimento dell'acqua fredda
Pannelli solari a concentrazione  
Il pannello solare a concentrazione concentra i raggi solari su un opportuno  ricevitore; attualmente il tipo più usato è quello a specchi parabolici a  struttura lineare che consente un orientamento monodimensionale (più economico)  verso il sole e l'utilizzo di un tubo ricevitore in cui è fatto scorrere un  fluido termovettore per il successivo accumulo di energia in appositi serbatoi.  Il vettore classico è costituito da olii minerali in grado di sopportare alte  temperature. Nel 2001 l'ENEA  ha avviato lo sviluppo del progetto Archimede, volto all'utilizzo di sali fusi  anche negli impianti a specchi parabolici a struttura lineare. Essendo  necessaria una temperatura molto più alta di quella consentita dagli olii, si è  provveduto a progettare e realizzare tubi ricevitori in grado di sopportare  temperature maggiori di 600°C  (contro quelle di 400°C  massimi dei tubi in commercio), ricoperti di un doppio strato CERMET  (ceramica/metallo) depositato con procedimento di sputtering. I sali fusi  vengono accumulati in un grande serbatoio coibentato alla temperatura di 550°C. A tale temperatura è  possibile immagazzinare energia per 1KWh equivalente con appena 5 litri di sali fusi. Da  tale serbatoio i sali - un comune fertilizzante per agricoltura costituito da  un 60% di nitrato di sodio (NaNO3) e un 40% di nitrato di potassio (KNO3) -  vengono estratti e utilizzati per produrre vapore surriscaldato. I sali  utilizzati vengono accumulati in un secondo serbatoio a temperatura più bassa (290°C). Ciò consente la  generazione di vapore in modo svincolato dalla captazione dell'energia solare  (di notte o con scarsa insolazione). L'impianto, lavorando ad una temperatura  di regime di 550°C,  consente la produzione di vapore alla stessa temperatura e pressione di quello  utilizzato nelle centrali elettriche a coproduzione (turbina a gas e riutilizzo  dei gas di scarico per produrre vapore), consentendo consistenti riduzioni di  costi e sinergie con le stesse. Attualmente è stato realizzato un impianto con  tali caratteristiche in Spagna ed è stato siglato un accordo di realizzazione  di un impianto su scala industriale presso la centrale termoelettrica ENEL  ubicata a Priolo Gargallo (Siracusa).
Particolato atmosferico.  
Particolato, particolato sospeso, pulviscolo atmosferico, polveri sottili, polveri totali sospese (PTS), sono termini che identificano comunemente l'insieme delle sostanze sospese in aria (fibre, particelle carboniose, metalli, silice, inquinanti liquidi o solidi). Il particolato è l'inquinante che oggi è considerato di maggiore impatto nelle aree urbane, ed è composto da tutte quelle particelle solide e liquide disperse nell'atmosfera, con un diametro che va da pochi nanometri fino ai 500 micron e oltre. 
Sorgenti 
Gli elementi che concorrono alla formazione di questi aggregati sospesi nell'aria sono numerosi e comprendono fattori sia naturali che antropici, con diversa pericolosità a seconda dei casi. Fra i fattori naturali vi sono ad esempio: 
polvere, terra, sale marino alzati dal vento (il cosiddetto "aerosol marino"), 
incendi, 
microrganismi, 
pollini e spore, 
erosione di rocce, 
eruzioni vulcaniche, 
polvere cosmica. 
Fra i fattori antropici si include gran parte degli inquinanti atmosferici: 
emissioni della combustione dei motori a combustione interna (autocarri, automobili, aeroplani); 
emissioni del riscaldamento domestico (in particolare gasolio, carbone e legna); 
residui dell'usura del manto stradale, dei freni e delle gomme delle vetture; 
emissioni di lavorazioni meccaniche, dei cementifici, dei cantieri; 
lavorazioni agricole; 
inceneritori e centrali elettriche; 
fumo di tabacco. 
Il rapporto fra fattori naturali ed antropici è molto differente a seconda dei luoghi. È stato stimato che in generale le sorgenti naturali contribuiscono per il 94% del totale lasciando al fattore umano meno del 10%. Tuttavia queste proporzioni cambiano notevolmente nelle aree urbane dove l'apporto preponderante sono senza dubbio il traffico stradale e il riscaldamento domestico (ma quest'ultimo molto poco se si utilizzano caldaie a gas), nonché eventuali impianti industriali (raffinerie, cementifici, centrali termoelettriche, inceneritori ecc.). 
Altro aspetto riguarda la composizione di queste polveri. In genere, il particolato prodotto da processi di combustione, siano essi di origine naturale (incendi) o antropica (motori, riscaldamento, legna da ardere, industrie, centrali elettriche, ecc.), è caratterizzato dalla presenza preponderante di carbonio e sottoprodotti della combustione; si definisce pertanto "particolato carbonioso". Esso è considerato, in linea di massima e con le dovute eccezioni, più nocivo nel caso in cui sia prodotto dalla combustione di materiali organici particolari quali ad esempio le plastiche, perché può trasportare facilmente sostanze tossiche che residuano da tale genere di combustione (composti organici volatili, diossine, ecc.). Per quanto riguarda i particolati "naturali", molto dipende dalla loro natura, in quanto si va da particolati aggressivi per le infrastrutture quale l'aerosol marino (fenomeni di corrosione e danni a strutture cementizie), a particolati nocivi come terra o pollini, per finire con particolati estremamente nocivi come l'asbesto. Un'altra fonte sono le ceneri vulcaniche disperse nell'ambiente dalle eruzioni che sono spesso all'origine di problemi respiratori nelle zone particolarmente esposte e molto raramente possono addirittura raggiungere quantità tali che, proiettate a una quota, possono rimanere nell'alta atmosfera per anni e sono in grado di modificare radicalmente il clima. 
Importanza delle sorgenti antropiche 
La questione è molto dibattuta. In generale, negli impianti di combustione non dotati di tecnologie specifiche, pare accertato che il diametro delle polveri sia tanto minore quanto maggiore è la temperatura di esercizio. In qualunque impianto di combustione (dalle caldaie agli inceneritori fino ai motori delle automobili e dei camion) un innalzamento della temperatura (al di sotto comunque di un limite massimo) migliora l'efficienza della combustione e dovrebbe perciò diminuire la quantità complessiva di materiali parzialmente incombusti (dunque di particolato). Lo SCENIHR (Scientific Committee on Emerging and Newly Identified Health Risks) comitato scientifico UE che si occupa dei nuovi/futuri rischi per la salute, considera i motori a gasolio e le auto con catalizzatori freddi o danneggiati i massimi responsabili della produzione di nanoparticelle. Lo SCHER (Scientific Committee on Health and Environmental Risks, Comitato UE per i rischi per la salute e ambientali) afferma che le maggiori emissioni di polveri fini (questa la dicitura esatta usata, intendendo PM2,5) è data dagli scarichi dei veicoli, dalla combustione di carbone o legna da ardere, processi industriali e altre combustioni di biomasse. 
Naturalmente, in prossimità di impianti industriali come cementifici, altiforni, centrali a carbone, inceneritori e simili, è possibile (a seconda delle tecnologie e delle normative in atto) rilevare o ipotizzare un maggiore contributo di tali sorgenti rispetto al traffico. Secondo i dati dell'APAT (Agenzia per la protezione dell'ambiente) riferiti al 2003, la produzione di PM10 in Italia deriverebbe: per il 49% dai trasporti; per il 27% dall'industria; per l'11% dal settore residenziale e terziario; per il 9% dal settore agricoltura e foreste; per il 4% dalla produzione di energia. Secondo uno studio del CSST su incarico dell'Automobile Club Italia, sul totale delle emissioni di PM10 in Italia il 29% deriverebbe dagli autoveicoli a gasolio, e in particolare l'8% dalle automobili in generale e l'1-2% dalle auto Euro3 ed Euro4. 
Si segnalano alcuni dubbi sulla formazione di polveri fini, ultrafini e nanopolveri che i filtri antiparticolato emetterebbero soprattutto nelle fasi di rigenerazione periodica.
In ogni caso, la determinazione dei contributi percentuali delle varie fonti è un'operazione di estrema complessità e occasione di continue polemiche fra i diversi settori produttivi, ulteriormente accentuate dai fortissimi interessi economici in gioco. 
Classificazione qualitativa 
In base alle dimensioni (µm = micron, micròmetro o milionesimo di metro) e alla natura delle particelle si possono elencare le seguenti classi qualitative di particolato: 
Aerosol: particelle liquide o solide sospese di diametro minore di 1 µm; sono dispersioni di tipo colloidale, che causano, ad esempio, all'alba e al tramonto, l'effetto Tyndall, facendo virare il colore della luce solare verso l'arancione. 
Esalazioni: particelle solide di diametro inferiore a  1 µm, in genere prodotte da processi industriali. 
Foschie: goccioline di liquido di diametro inferiore a 2 µm. 
Fumi: particelle solide disperse di diametro inferiore a 2 µm, trasportate da prodotti della combustione. 
Polveri: particelle solide di diametro variabile tra 0,25 e 500 µm. 
Sabbie: particelle solide di diametro maggiore di 500 µm. 
Identificazione e misura quantitativa
La quantità totale di polveri sospese è in genere misurata in maniera quantitativa (peso / volume). In assenza di inquinanti atmosferici particolari, il pulviscolo contenuto nell'aria raggiunge concentrazioni diverse (mg/m3) nei diversi ambienti, generalmente è minimo in zone di alta montagna, e aumenta spostandosi dalla campagna alla città, alle aree industriali.
L'insieme delle polveri totali sospese (PTS) può essere scomposto a seconda della distribuzione delle dimensioni delle particelle. Le particelle sospese possono essere campionate mediante filtri di determinate dimensioni, analizzate quantitativamente ed identificate in base al loro massimo diametro aerodinamico equivalente (dae). Tenuto conto che il particolato è in realtà costituito da particelle di diversa densità e forma, il dae permette di uniformare e caratterizzare univocamente il comportamento aerodinamico delle particelle rapportando il diametro di queste col diametro di una particella sferica avente densità unitaria (1 g/cm3) e medesimo comportamento aerodinamico (in particolare velocità di sedimentazione e capacità di diffondere entro filtri di determinate dimensioni) nelle stesse condizioni di temperatura, pressione e umidità relativa.
Si utilizza un identificativo formale delle dimensioni, il Particulate Matter, abbreviato in PM, seguito dal diametro aerodinamico massimo delle particelle.
 Ad esempio si parla di PM10 per tutte le particelle con diametro inferiore a 10 µm, pertanto il PM2,5 è un sottoinsieme del PM10, che a sua volta è un sottoinsieme del particolato grossolano ecc. 
In particolare: 
Particolato grossolano – particolato sedimentabile di dimensioni superiori ai 10 µm, non in grado di penetrare nel tratto respiratorio superando la laringe, se non in piccola parte. 
PM10 – particolato formato da particelle inferiori a 10 micron (µm) (cioè inferiori a un centesimo di millimetro), è una polvere inalabile, ovvero in grado di penetrare nel tratto respiratorio superiore (naso e laringe). Le particelle fra circa 5 e 2,5 µm si depositano prima dei bronchioli. 
PM2,5 – particolato fine con diametro inferiore a 2,5 µm (un quarto di centesimo di millimetro), è una polvere toracica, cioè in grado di penetrare profondamente nei polmoni, specie durante la respirazione dalla bocca. 
Per dimensioni ancora inferiori (particolato ultrafine, UFP o UP) si parla di polvere respirabile, cioè in grado di penetrare profondamente nei polmoni fino agli alveoli; vi sono discordanze tra le fonti per quanto riguarda la loro definizione, per quanto sia più comune e accettata la definizione di UFP come PM0,1 piuttosto che come PM1 (di cui comunque sono un sottoinsieme): 
PM1, con diametro inferiore a 1 µm 
PM0,1, con diametro inferiore a 0,1 µm 
nanopolveri, con diametro dell'ordine di grandezza dei nanometri (un nanometro sarebbe PM 0,001). 
Hinds suddivide il particolato in tre categorie generiche, anche a seconda del meccanismo di formazione: 
particolato ultrafine (UFP), con diametro infiriore a 0,1 µm e formato principalmente da residui della combustione (PM0,1) 
particolato formato dall'aggregazione delle particelle più piccole, compreso tra 0,1 e 2,5 µm in diametro (PM2,5) 
particolato formato da particelle più grossolane (maggiore di 2,5 µm) generate mediante processi meccanici da particelle più grandi. 

Distribuzione delle polveri nell'apparato respiratorio
  
  Pedologia.  
  La pedologia (dal greco pedon, suolo e logos, studio) è la scienza che studia la composizione, la genesi e le modificazioni del suolo, dovute sia a fattori biotici che abiotici. È una branca delle scienze della Terra in genere e dell'agronomia. Suo padre fondatore è ritenuto il geografo russo Vasilij Dokucaev.
   Pericolosità  della corrente elettrica  
  La soglia di percezione della correnti elettrica nell'uomo è circa di 0,5 mA   in c.a. (corrente alternata) a frequenza industriale (f = 50÷60 Hz) e di 2 mA in   c.c. (corrente continua), inoltre si deve tenere conto che l'effetto di una   determinata corrente elettrica varia non solo per l'intensità, ma anche per la   durata della percorrenza. Si noti che la tensione non è rilevante negli   effetti sull'uomo, ma occorre una tensione minima per essere attraversati dalla   corrente, quindi sotto i 50 V circa non si corrono rischi, ma al di sopra è   ininfluente la tensione, gli effetti dipendono solo dall'intensità. Con   intensità maggiori a quelle specificate si producono nel corpo umano i seguenti   effetti:
  - Tetanizzazione muscolare: i muscoli sottoposti ad una corrente   alternata, subiscono una sequenza di stimoli elettrici; non riuscendo a   contrarsi e rilassarsi con la frequenza della corrente, i muscoli restano   contratti permanentemente. Tale circostanza è particolarmente grave quando un   oggetto in tensione viene impugnato volontariamente, poiché la tetanizzazione   paralizza i muscoli impedendone il rilascio; la massima corrente per la quale si   riesce a lasciare la presa viene chiamata corrente di rilascio e si aggira sui   10÷30 mA a f.i. (frequenza industriale). 
- Blocco respiratorio: tetanizzazione dei muscoli respiratori quando il   contatto interessa la regione toracico-polmonare. Comporta ipossia quindi danni   al cervello dopo pochi minuti. 
- Fibrillazione ventricolare: una corrente alternata sufficientemente   elevata (> 50 mA) che interessi la regione toracica può provocare la perdita   di coordinamento dei muscoli cardiaci, così il cuore non riesce più a pompare   sangue causando ipossia e danni al   cervello. 
- Arresto cardiaco. 
- Ustioni: dovuta ad elevati densità di corrente tra cute e conduttore   in tensione, per effetto   Joule, provoca elevante temperature per brevi periodi capaci di provocare   gravi ustioni. 
  - Limiti di corrente:
    
        - Si definisce soglia media di pericolosità: 
  
- dove con Ip : corrente   pericolosa e Δt: tempo di permanenza; questa   individua il limite al di sotto del quale la corrente è percepibile ma non   pericolosa; al di sopra di esso la corrente deve considerarsi potenzialmente   pericolosa. 
- I parametri dell'equazione si possono assumere, a frequenza industriale: 
 . .
 
- Limiti di tensione:
    
        - Il corpo umano presenta prevalentemente un comportamento resistivo: la   tensione  che corrisponde alla corrente pericolosa è di difficile definizione perché la   resistenza del corpo Ru può variare in un campo molto ampio, dipendendo da   molteplici fattori quali i punti di contatto, l'estensione del contatto, la   pressione, lo spessore della pelle e il suo grado di umidità. Si assume Ru > 2000Ω, per questo motivo   non vengono ritenute pericolose tensioni sinusoidali con valore efficace U < 50V e tensioni continue con U < 120V, applicate per un tempo   illimitato. che corrisponde alla corrente pericolosa è di difficile definizione perché la   resistenza del corpo Ru può variare in un campo molto ampio, dipendendo da   molteplici fattori quali i punti di contatto, l'estensione del contatto, la   pressione, lo spessore della pelle e il suo grado di umidità. Si assume Ru > 2000Ω, per questo motivo   non vengono ritenute pericolose tensioni sinusoidali con valore efficace U < 50V e tensioni continue con U < 120V, applicate per un tempo   illimitato.
 
Una persona può venire a contatto con parti in tensione e quindi subire gli   effetti del passaggio di corrente mediante contatto diretto oppure contatto   indiretto. Quindi per evitare ciò si devo attuare delle contromisure imposte   dalla norma vigente (norme CEI). La protezione contro i contatti diretti si attuano prevenendo i   contatti accidentali con le parti in tensione:
  - isolamento delle parti attive con materiale isolante non removibile, 
- involucri o barriere tali da impedire ogni contatto con le parti in   tensione, 
- ostacoli o distanziatori, 
- interruttori differenziali ad alta   sensibilità, con correnti differenziali di soglia di Is ≤30 mA 
La protezione contro i contatti indiretti si realizza nei seguenti   modi:
  - Messa a terra delle   masse, 
- Interruzione automatica dell'alimentazione tramite interruttori automatici, 
- Doppio isolamento delle apparecchiature 
- Separazione elettrica 
Petrolio 
  Al pari del carbone e del gas naturale, anche il petrolio è una fonte fossile   di origine organica. In particolare è composto da una miscela assai complessa di   idrocarburi liquidi, solidi e gassosi, con presenza più o meno limitata di   sostanze organiche ossigenate, azotate e solforate di diversa natura. La   distribuzione mondiale delle riserve accertate di petrolio indica una forte   concentrazione (oltre il 66%) nel Medio Oriente e in alcune aree dell’Asia,   dell’Africa e dell’Europa orientale, mentre molto più modesti sono i giacimenti   nelle altre aree del Pianeta. Per poter essere impiegato sul piano   industriale il petrolio necessita di raffinazione. Con questo termine si intende   un insieme di processi che hanno lo scopo di isolare dal greggio sostanze o   miscele di sostanze adatte a vari impieghi, principalmente in campo energetico   (carburanti per autotrazione, combustibili per centrali termoelettriche o per il   riscaldamento), ma anche per altri usi, ad esempio per ricavare solventi,   lubrificanti, bitumi oppure intermedi di base per l’industria petrolchimica (su   cui si fonda la fabbricazione di numerosi prodotti di sintesi come materie   plastiche, prodotti sintetici, detergenti, ecc.). Nonostante la lenta   erosione della sua quota sui consumi primari di energia nel   mondo, il petrolio è, e rimarrà   ancora a lungo, la fonte energetica più utilizzata. Oltre il 37% dei consumi   energetici mondiali è assicurato dal petrolio. In particolare, nell’America   Centrale e Meridionale i consumi petroliferi rappresentano oltre il 45% del   totale, mentre si attestano intorno al 40% nel continente nordamericano, in   Africa e nell’Europa occidentale. All’interno dell’Unione Europea   spicca il dato dell’Italia dove i consumi petroliferi rappresentano la quota   preponderante (oltre il 48%) del fabbisogno energetico nazionale. Si tratta di un “primato” assai poco   consolante per la fattura energetica nazionale, ove il petrolio gioca un ruolo preponderante essendo la fonte di   energia più costosa. Il petrolio,   infatti, come del resto anche le altre fonti fossili, è quasi interamente   importato dall’Italia, con un grado di dipendenza dall'estero  stabilmente superiore al 93%. In   particolare, l’approvvigionamento nazionale di petrolio è assicurato per circa   il 70% dal Medio Oriente e dal Nord Africa e, per la quota restante, dalla   Federazione Russa e da altri Paesi europei. Tuttavia, se resta elevata in   Italia la quota dei consumi petroliferi, si va sensibilmente modificando il   quadro degli impieghi dei prodotti derivati dal petrolio. In particolare, nel   settore termoelettrico si sta assistendo nel nostro Paese a un ricorso sempre   più limitato all’olio combustibile a vantaggio del “carbone pulito” e del gas   naturale. Questa tendenza è fortemente sostenuta da Enel, il cui piano di   riconversione del proprio parco centrali punta, per ragioni ambientali ed   economiche, a un sostanziale azzeramento entro il 2008 dell’uso di olio   combustibile.

  Riserve di petrolio Prospettive sulla diminuzione dei rimanenti 57 Z-Joule di petrolio sul pianeta. Il consumo   annuo di petrolio era di 0,18 ZJ nel 2005. Esiste un'incertezza significativa   attorno a questi numeri. Gli 11 ZJ che si prospettano come addendi futuri alle   riserve recuperabili potrebbero essere troppo ottimistici. (Z = 10exp19) 
  Picco  di Hubbert 
La curva di Hubbert (o hubbertiana), così chiamata dal geofisico M. King Hubbert è una   derivazione della funzione logistica. Un esempio della curva di Hubbert può essere espressa come:
    
La curva è molto simile, ma non identica, ad una distribuzione   normale. È stata inizialmente intesa come modello per la stima della   quantità di petrolio estraibile da   un giacimento. Secondo questo modello, la quantità del petrolio estratto, e   quindi prodotto, è determinata dalla velocità nello scoprire nuovi giacimenti   petroliferi. Superato il punto di massima della funzione, (detto picco di Hubbert) si   avrà un declino dell'estrazione di petrolio che tenderà infine a   zero. Hubbert applicò per la prima volta il suo modello alla produzione petrolifera degli Stati   Uniti, riuscendo a prevedere con dieci anni di anticipo che questa avrebbe   raggiunto il suo massimo all'inizio degli anni settanta. In figura la curva di Hubbert. 

  Sulla base degli studi intorno al Picco di Hubbert per la risorsa   petrolifera sono sorte diverse teorie scientifiche e, principalmente, economiche   e politiche, alcune delle quali anche di stampo più o meno   "catastrofista". Vogliamo qui solo menzionare, tra le più importanti, la teoria di Olduvai proposta da Richard   Duncan, che lega l'esistenza stessa della civiltà   industriale all'inclinazione "crescente" della curva di Hubbert, giungendo   dunque a prevedere la fine di tale tipo di civiltà in un'epoca di curva di   Hubbert "decrescente". Questo ovviamente postulando che la produzione energetica   mondiale continui a basarsi prevalentemente sull'utilizzo del petrolio e di fonti   fossili. Molti economisti sono critici nei confronti delle teorie collegate al picco   del petrolio poiché considerano il bene energia come lo è il petrolio come bene   sostituibile da un bene non energetico ma che la tecnologia eleva alla classe di   bene energetico in caso di crisi mondiale dell'energia. In pratica si immagina che in caso di crisi e di prezzi elevati del greggio   possano arrivare "naturalmente" una o più scoperte o un generale affinamento   della tecnologia che riesca ad utilizzare meglio o sostituire il bene petrolio e   ne faccia calare il prezzo. Per questo motivo economisti come Michael   Lynch del MIT e molti altri avversano le teorie probabilistiche del   peak oil poiché non si contemplano nuovi metodi per produrre energia. Si fa notare inoltre come la domanda petrolifera sia sostanzialmente   anelastica ai prezzi, ovvero che il petrolio sia un bene primario, del quale non   si può fare a meno; se a un certo punto gli investimenti necessari   all'estrazione divengono proibitivi, la produzione non cesserà perché incontrerà   una domanda comunque disposta a remunerarli. La teoria di Hubbert poi considera   solamente logiche di mercato, mentre la produzione può essere finanziata in   parte dall'intervento statale o da forme differenti per le quali l'investimento   del privato ritorna remunerativo, e solo una parte dei costi è caricata sul   consumatore.
Pila a combustibile 
  Una pila a combustibile (detta anche cella a combustibile dal   nome inglese fuel   cell) è un dispositivo elettrochimico che permette di ottenere   elettricità direttamente da certe sostanze, tipicamente da idrogeno ed ossigeno, senza che avvenga alcun processo di   combustione termica. L'efficienza delle pile a   combustibile può essere molto alta; alcuni fenomeni però, come la catalisi e la resistenza interna, pongono limiti pratici alla loro efficienza. Il principio alla base delle pile a combustibile è quello della generazione   diretta, a partire dalle sostanze reagenti (per esempio idrogeno e ossigeno) di   una forza   elettromotrice per mezzo di una reazione elettrochimica, in modo analogo   alle pile elettriche, anziché attraverso processi di   conversione di energia, come si fa invece nei generatori elettrici azionati da   macchine a combustione termica. Infatti, il calore generato dalla combustione   non può essere completamente convertito in elettricità a causa dei limiti   imposti dal teorema di Carnot, che consegue dal secondo principio della   termodinamica: in base a esso, la massima efficienza ηmax di una macchina   termica che opera tra una temperatura Ta e una temperatura più bassa Tb (per esempio l'ambiente)   è:

Anche nelle macchine termiche più efficienti, quali le turbine a gas combinate con   turbine a vapore, a causa dei limiti dei materiali di costruzione, raramente   l'efficienza può superare il 60%, e questo può avvenire solo su impianti a ciclo   combinato di elevata potenza. Nei motori a combustione delle più moderne   automobili, l'efficienza è spesso al di sotto del 30%. La reazione elettrochimica si basa sull'idea di spezzare le molecole del combustibile o del comburente (di solito ossigeno atmosferico) in ioni positivi ed elettroni; questi ultimi, passando da un circuito   esterno, forniscono una corrente elettrica proporzionale alla velocità della   reazione chimica, e utilizzabile per qualsiasi scopo. In pratica, la scelta dei combustibili è molto limitata, perché ionizzare   molte molecole è difficile, e la reazione risulta avere una grande energia di   attivazione, che a sua volta rallenta la reazione e rende l'uso pratico   impossibile. L'idrogeno è un gas in grado di essere ionizzato facilmente, perché   la sua molecola è costituita da due atomi legati da un legame relativamente   debole (H-H); molto più debole, per esempio, di quello tra atomi di idrogeno e carbonio nella molecola del metano (CH4). Il comburente piu tipicamente usato è   l'ossigeno dell'aria: non solo reagisce con l'idrogeno dando un prodotto innocuo   come l'acqua, ma è anche disponibile in   abbondanza e gratuitamente dall'atmosfera. Tuttavia, il doppio legame (O=O) tra   gli atomi nella molecola dell'ossigeno è più forte che nel caso della molecola   di idrogeno, e l'ossigeno rappresenta spesso un ostacolo maggiore nella catalisi delle reazioni   elettrochimiche; si parla in gergo tecnico di sovratensione catodica, visto che l'ossigeno viene   consumato al catodo della cella, e che una parte della tensione generata dalla   cella viene assorbita per promuovere la reazione dell'ossigeno. In figura è mostrato lo schema di funzionamento di una pila a combustibile. 

    Pila chimica 
  La pila, in chimica, è un   dispositivo che converte energia chimica in energia elettrica. All'interno di una pila avviene una reazione di ossido-riduzione in cui una sostanza subisce ossidazione, perdendo   elettroni, ed un'altra subisce riduzione, acquistandoli. Data la sua configurazione,   la pila consente di intercettare e sfruttare il flusso di elettroni tra le due   sostanze. Tale flusso genera una corrente elettrica continua, il cui potenziale   elettrico è funzione delle reazioni di ossidazione e riduzione che vi   avvengono. Una pila si scarica quando queste reazioni chimiche raggiungono lo stato di equilibrio. Nel 1799 Alessandro Volta riprese gli studi di Luigi Galvani sulla corrente   elettrica, riuscendo a realizzare la prima pila (oggi detta voltaica), con i seguenti costituenti:
  - Un supporto di legno posto   verticalmente su una base circolare 
- Dischetti di rame e zinco 
- Panno imbevuto di una soluzione acida formata da acqua e acido solforico 
- Due fili di rame 
La pila consiste in dischetti di rame e zinco alternati, seguendo la logica   rame, zinco, umido, rame, zinco, e così via il tutto tenuto a posto dalla   struttura di legno esterna. Una volta disposti i dischetti e il panno sul   supporto, collegando il primo e l'ultimo dischetto della colonna con due fili di   rame, si viene a creare tra essi una differenza di potenziale in grado di   produrre il passaggio di corrente. In realtà Volta credeva che il passaggio di corrente fosse dovuto alla   differenza di potenziale originatasi in seguito al semplice contatto dei due   metalli, mentre ora si sa che il passaggio di corrente è dovuto alla differenza   di potenziale creata dai due metalli, ma il passaggio di corrente è provocato   dalle reazioni chimiche al quale concorre anche il mezzo umido. Infatti si può notare che nella pila così formata lo zinco si consuma mentre   il rame rimane intatto (può eventualmente ossidarsi). Questo perché lo zinco   cede due elettroni e passa da Zn metallico a Zn2+, questi elettroni   contrariamente a quanto si possa pensare non passano al rame, che serve solo per   creare la differenza di potenziale, ma passano allo ione ossonio H3O+ formatosi dalla dissociazione ionica dell'acido solforico in   acqua, che si trasforma in idrogeno molecolare gassoso H2. Infatti la differenza di potenziale che si può   misurare con un potenziometro è di ca. 0,7 V (solo di uno strato   rame, umido, zinco) che equivale alla semicoppia Zn/Zn2+ utilizzando   come altra semicoppia quella dell'idrogeno   H2/H3O+. Il dispositivo così costituito permise a Volta di produrre una corrente   elettrica, di cui osservò il flusso riuscendo a indurre la contrazione dei   muscoli di una rana morta. Successivamente, nel 1836, John Frederic   Daniell elaborò una pila, chiamata pila Daniell, sfruttando il   prototipo inventato da Volta e apportando miglioramenti in termini di voltaggio   e sicurezza d'uso. La cella è costituita da un compartimento anodico formato da   una barretta di zinco immersa in una soluzione di solfato   di zinco, ZnSO4 e un compartimento catodico formato da una   barretta di rame immersa in una soluzione di solfato di rame(2+), CuSO4. Le due   semicelle sono separate da un setto poroso. In entrambi i comparti deve essere   presente un elettrolita di supporto quale ad esempio il solfato di potassio   K2SO4. Alla chiusura del circuito esterno con un   conduttore, al catodo avviene la semireazione di riduzione
Cu2+(aq) + 2 e → Cu(s) E°+ = 0,34 V
per cui del catione rame scompare dalla soluzione e si deposita come metallo   sulla bacchetta; all'anodo avviene la semireazione di ossidazione
Zn(s) → Zn2+(aq) + 2 e E°- = - 0,76 V
per cui dello zinco si stacca come catione dalla barretta e va in soluzione.   Si ha la reazione somma:
Zn(s) + Cu2+(aq) → Zn2+(aq) + Cu(s)
Per effetto di questa reazione nel comparto catodico mancherebbero cariche   positive, mentre nel comparto anodico si avrebbe un eccesso di cariche positive   dello zinco catione. Il tutto però viene compensato perché del catione potassio   si sposta attraverso il setto poroso dal comparto anodico a quello catodico,   ristabilendo l'elettroneutralità della soluzione. Gli elettroni nel circuito   esterno girano dallo zinco al rame e quindi la corrente convenzionale positiva   I, va dal rame allo zinco. Il potenziale teorico della pila Daniell è E° = E°+ -   E°- = 1,10 V (ottenibile in condizioni   quasistatiche reversibili), differenza tra il potenziale catodico (polo   positivo) e quello anodico (polo negativo).
Le pile primarie, chiamate comunemente batterie, sono quelle pile le cui reazioni chimiche   interne sono irreversibili. In altre parole, non è possibile invertire la   reazione completa semplicemente fornendo energia alla pila; quindi, in sostanza,   quando tutti i reagenti della pila si trasformano completamente nei prodotti   finali, essa si scarica definitivamente divenendo inutilizzabile.
La prima pila a secco, cioè priva di elementi liquidi, prodotta   industrialmente e commercializzata su ampia scala è la pila Leclanché,   dal nome di Georges Leclanché. La paternità della   prima pila a secco è, però,  contesa tra Leclanché e Giuseppe Zamboni. La pila Leclanché è costituita da un anodo di zinco metallico, che funge anche da contenitore, e da un catodo costituito da una barretta di grafite, sulla cui superficie avviene la riduzione del   biossido di manganese, miscelato a   del cloruro   d'ammonio a formare una pasta gelatinosa. La stechiometria della   reazione di riduzione non è esattamente nota, tuttavia si può dire che le   reazioni in una pila Leclanché sono le seguenti:
  
    
      | ossidazione | Zn → Zn2+ + 2 e- | Eo = - 0,76 V | 
    
      | riduzione | 2 MnO2 + 2 NH4+ + 2 e- → 2   MnO(OH) + 2 NH3 | Eo = 0,75 V | 
    
      | reazione complessiva | Zn + 2 MnO2 + 2 NH4+ → Zn2+   + 2 MnO(OH) + 2 NH3 | Eo = 1,51 V | 
  

Rappresentazione schematica di una pila Leclanché; il catodo (+) è una barretta   di grafite, il contenitore esterno di zinco funge da anodo (-)
Il cloruro d'ammonio, oltre a fornire gli ioni H+ per la reazione   di riduzione, ha anche il compito di complessare gli ioni zinco prodotti dalla reazione di ossidazione
  - Zn2+ + 2 NH4+ + 2 OH- →   [Zn(NH3)2]2+ + 2 H2O 
mantenendo quindi bassa la concentrazione degli ioni Zn2+ liberi,   e quindi mantenendo elevato il potenziale della reazione di ossidazione, legato   alle concentrazioni delle specie ossidata e ridotta secondo l'equazione di Nernst. L'ammoniaca che si libera al   catodo tende a formare un velo gassoso sulla sua superficie, che impedisce il   flusso degli elettroni. Quando questo avviene, la pila smette di erogare   corrente e diviene scarica.
La pila Weston, che deve il suo nome al chimico inglese Edward   Weston che la creò nel 1893, è una nota   pila a umido di riferimento utilizzata in laboratorio per la calibrazioni di strumenti di   misura quali i voltmetri e i potenziometri. L'anodo è   costituito da un amalgama Cd/Hg al 12,5% in Cd, mentre il catodo è   formato da una pasta di solfato di mercurio(1+) (Hg2SO4)   depositata su mercurio metallico. L'elettrolita è comune alle due celle ed è   rappresentato, nella versione originaria ideata da Weston, da una soluzione   satura di solfato di cadmio CdSO4; nelle moderne versioni si utilizza   invece una soluzione insatura, onde avere una minore variabilità del potenziale   erogato in funzione della temperatura. La forza elettromotrice della pila   originaria vale 1,0183 V a 20°C.
  - Reazione chimica all'anodo (ossidazione) 
  - Cdamalg. -> Cd2+ + 2 e- 
  - Reazione chimica al catodo (riduzione) 
  - Hg2SO4 + 2 e- → 2 Hg +   SO42- 
  - Usi: calibrazione di strumenti di misura quali voltmetri e   potenziometri 
- Vantaggi: forza elettromotrice costante nel tempo e che presenta   piccolissima variazione in funzione della temperatura (elevata riproducibilità) 
- Svantaggi: utilizzo di mercurio tossico, necessaria calibrazione   periodica della pila insatura con una cella che utilizza la versione satura 
 Le pile  alcaline sono l'evoluzione delle pile a secco. Sostanzialmente la loro struttura è identica. Tuttavia le batterie alcaline utilizzano una pasta, alcalina appunto, di idrossido di potassio (KOH) come elettrolita. Questa innovazione è fondamentale e ha il vantaggio di non produrre gas durante il funzionamento e di non avere cadute di tensione. La differenza di potenziale ai poli è di 1,5 V.
  
  Reazione chimica all'anodo (ossidazione) 
  Zn + 2 OH- ? ZnO + H2O + 2 e- 
  Reazione chimica al catodo (riduzione) 
  MnO2 + 2 H2O + 2 e- ? Mn(OH)2 + 2 OH- 
  Reazione completa 
  Zn + MnO2 + H2O ? ZnO + Mn(OH)2. Usi: torce elettriche, giocattoli, strumenti elettronici vari. Vantaggi: tempo di vita più lungo, nessuna caduta di tensione anche ad elevata intensità di corrente erogata. Svantaggi: costo, più elevato rispetto alle pile a secco.
Le pile a mercurio hanno tipicamente una forma “a   bottone”. Utilizzano un anodo di zinco e   un catodo di acciaio e l'elettrolita è   sempre una pasta alcalina di idrossido di potassio (KOH). La differenza di   potenziale ai poli è di 1,3 V. Reazione chimica all'anodo (ossidazione)
  - Zn + 2OH- -> ZnO + H2O + 2e- 
Reazione chimica al catodo (riduzione)
  - HgO + H2O + 2e- -> Hg + 2OH- 
Reazione completa
  - Zn + HgO -> ZnO + Hg 
  - Usi: Orologi, calcolatrici 
- Vantaggi: Dimensioni ridotte, voltaggio relativamente alto 
- Svantaggi: Il mercurio è un metallo pesante molto tossico e   pericoloso per l’ambiente 
Le pile  ad argento sono molto   simili a quelle a mercurio. Utilizzano un anodo di zinco e un catodo di argento   e l'elettrolita è sempre una pasta alcalina di idrossido di potassio (KOH). La   differenza di potenziale ai poli è di 1,6 V.
Reazione chimica all'anodo (ossidazione)
  - Zn + 2OH- -> ZnO + H2O + 2e- 
Reazione chimica al catodo (riduzione)
  - Ag2O + H2O + 2e- -> 2Ag +   2OH- 
Reazione completa
  - Zn + Ag2O -> ZnO + 2Ag 
  - Usi: Macchine fotografiche, pacemaker cardiaci, alcuni apparecchi   elettronici di precisione 
- Vantaggi: Dimensioni ridotte, voltaggio relativamente alto e molto   stabile 
- Svantaggi: Costo molto elevato 
Le pile secondarie, o accumulatori, sono quelle pile le cui reazioni chimiche interne sono reversibili. A differenza delle pile primarie, somministrando energia elettrica a questi dispositivi, si inverte il senso della reazione completa ottenendo la riformazione dei reagenti iniziali a spese dei prodotti finali. Di fatto, quindi, la pila si ricarica.
Accumulatore al piombo. La cella piombo-acida è il costituente fondamentale dei comuni accumulatori   per auto. Utilizzano un anodo fatto di polvere di piombo (Pb) spugnosa e un catodo di diossido di   piombo (PbO2). L'elettrolita è una soluzione di acido solforico (H2SO4) 4,5 M. La differenza di potenziale ai poli è di 2,1 V   infatti negli accumulatori per automobili troviamo sei celle piombo-acide in   serie, che generano una differenza di potenziale complessiva di 12 V. Negli accumulatori moderni, infine, si utilizza una lega di piombo che   inibisce l’elettrolisi dell’acqua, potenzialmente pericolosa in quanto producendo idrogeno e ossigeno gassosi è a rischio di esplosioni.
Reazione chimica all'anodo (ossidazione)
  - Pb + HSO4- -> PbSO4 + H+   + 2e- 
Reazione chimica al catodo (riduzione)
  - PbO2 + 3H+ + HSO4- +   2e- -> PbSO4 + 2H2O 
Reazione completa
  - PbO2 + Pb + 2H2SO4 ->   2PbSO4 + 2H2O 
  - Usi: Alimentazione automobili e camion 
- Vantaggi: Eroga correnti molto elevate, affidabile e di lunga vita,   funziona bene a basse temperature 
- Svantaggi: Il piombo è un metallo pesante ed è tossico. Perdita di   capacità dovuta a stress meccanici
Le pile  al nichel-metallo idruro (NiMH) stanno   ormai sostituendo le vecchie batterie al nichel-cadmio (NiCd), più tossiche e meno efficienti. All’anodo   abbiamo l’ossidazione dell’idrogeno assorbito su leghe metalliche di nichel, al   catodo abbiamo la riduzione del nichel (III) e l'elettrolita è sempre una pasta   basica di idrossido di potassio. La differenza di potenziale ai poli è di 1,2   V.
Reazione chimica all'anodo (ossidazione)
  - MH + OH- -> M + H2O + e- 
Reazione chimica al catodo (riduzione)
  - NiO(OH) + H2O + e- -> Ni(OH) 2 +   OH- 
Reazione completa
  - MH + NiO(OH) -> M + Ni(OH)2 
  - Usi: Apparecchiature elettroniche portatili varie, tra cui telefoni   cordless, cellulari, videocamere. Lentamente sostituita da quella al litio. 
- Vantaggi: Leggera e potente. 
- Svantaggi: Si scarica anche se non utilizzata, “effetto   memoria”. 
I moderni accumulatori al litio sono   potenti e leggeri, anche se ancora relativamente costosi. All’anodo abbiamo   degli atomi di litio “immersi” in strati di grafite, il catodo è un suo sale   (solitamente LiMn2O4) e l'elettrolita è una soluzione di perclorato   di litio LiClO4 in etilencarbonato C2H4CO3, un solvente organico. La differenza di   potenziale ai poli è di 3,7 V.
Reazione chimica all'anodo (ossidazione)
  - Lix -> x Li+ + x e- 
Reazione chimica al catodo (riduzione)
  - Li1-xMn2O4 + x Li+ + x   e- -> LiMn2O4 
Reazione completa
  - Lix + Li1-xMn2O4 ->   LiMn2O4 
  - Usi: Apparecchiature elettroniche moderne, computer portatili,   cellulari, videocamere. 
- Vantaggi: Estremamente potente e leggera: solo 7 grammi di metallo   producono fino ad una mole di elettroni. Nessun “effetto memoria”. 
- Svantaggi: Piuttosto costosa, il solvente può essere infiammabile. Se   non sono applicati alcuni accorgimenti possono letteralmente esplodere in modo   spettacolare (e pericoloso) 
 Pila zinco-aria 
Il tipo di batteria ricaricabile più propriamente   definibile pila zinco-aria, ma più noto come accumulatore   zinco-aria ha come caratteristica peculiare quella di impiegare l'ossigeno atmosferico come elettrodo che riceve elettroni (si riduce) e lo zinco come elettrodo che perde elettroni (si ossida), il movimento di   elettroni genera una differenza di potenziale e quindi una   tensione elettrica che può servire per alimentare vari tipi di circuito   elettrico. Gli accumulatori zinco-aria appartengono alla categoria delle celle a combustione, dove lo zinco è il combustibile e l'ossigeno è il comburente. Quando le superfici   degli elettrodi di zinco metallico si sono ossidate diventando ossido di zinco, la   batteria può considerarsi scarica. La batteria non può essere ricaricata   dall'utente, ma deve essere sostituita "al volo" da un altro pacchetto di   queste batterie nuove. Il vecchio pacchetto viene "ricaricato" a parte   (in realtà il diossido di zinco viene "rigenerato", con una procedura   elettro-chimica viene deossidato a zinco metallico) nell'industria o nella stazione di   servizio automatizzata che si occuperà di questo ciclo industriale. Un Kg di batteria zinco-aria fornisce circa 110-200 chilowatt/ora, questo è da circa 6,8 a 10,2 volte la   densità energetica di un comune accumulatore   piombo-acido (il più utilizzato nelle odierne automobili). In base a calcoli   teorici e perfezionamenti tecnologici si potrebbe arrivare a densità energetiche   fino a 1000 Wh/Kg. Il costo di produzione è inferiore a quello degli accumulatori   piombo-acido. 
Vantaggi. 
  - Rispetto all' accumulatore nichel-cadmio si hanno   lievi vantaggi nel rapporto carica/peso, la non presenza di metalli pesanti tossici   da smaltire in discarica, e la totale inesistenza dell' effetto   memoria. 
- Rispetto all' accumulatore litio-ione si hanno enormi   vantaggi nella durata (soprattutto ad alte temperature) e soprattutto nella   sicurezza (non hanno alcuna tendenza ad incendiarsi se danneggiate). 
- Rispetto all' accumulatore   piombo-acido il vantaggio principale è quello del molto maggiore rapporto   carica/peso, del minor costo del metallo, e dell'assenza di metalli pesanti da   smaltire in discarica. 
Svantaggi. 
  - Le pile zinco-aria risentono molto della bassa temperatura e dell'umidità e   inquinamento, che portano ad una riduzione della reattività dell'ossigeno atmosferico. In condizioni ideali, come luoghi caldi e desertici,   si nota un aumento della potenza massima e dell'autonomia del veicolo (vedasi il   test del 1997 in California). Esattamente il contrario avviene ad alta quota   (dove cala la pressione parziale dell'ossigeno), ed in climi freddi ed umidi   come in caso di pioggia, che vedono ridursi sia la potenza massima che   l'autonomia del veicolo. 
  - Non è possibile ricaricare queste battterie in casa e tantomeno   impiegarle nel recupero dell'energia di frenata, o collegarle ad un generatore alimentato da un motore a combustione interna oppure il ricaricarle con celle solari sulla carrozzeria, ecc.   Associandole ad altri tipi di batteria, si potrebbe ricuperare una parte dell'   energia frenante o quella solare incidente tramite celle foto-voltaiche. 
 Piovosità anni 2012-2013. 
  Vedi articolo.
Pirolisi 
  La pirolisi è un processo di decomposizione termochimica di materiali organici, ottenuto mediante   l’applicazione di calore e in completa   assenza di un agente ossidante (normalmente ossigeno). In pratica   mentre riscaldando il materiale in presenza di ossigeno avviene una combustione che genera calore e produce composti gassosi ossidati, effettuando invece lo   stesso riscaldamento in condizioni  di assenza totale di ossigeno il   materiale subisce la scissione dei legami chimici originari con formazione di   molecole più semplici. Il calore fornito nel processo di pirolisi viene quindi   utilizzato per scindere i legami chimici, attuando quella che viene definita omolisi termicamente indotta. Tra i principali processi pirolitici   sfruttati su larga scala spiccano il cracking industriale e il trattamento   termico dei rifiuti. Prima del 1925 la pirolisi del legno costituì la fonte principale di metanolo. La pirolisi dei rifiuti, utilizzando temperature comprese tra 400 e 800°C, converte il   materiale dallo stato solido in prodotti liquidi (cosiddetto tar o olio di pirolisi) e/o gassosi (syngas), utilizzabili quali combustibili o quali   materie prime destinate a successivi processi chimici. Il residuo carbonioso   solido ottenuto può venire ulteriormente raffinato fornendo prodotti quali ad   esempio il carbone   attivo. I prodotti della pirolisi sono sia gassosi, sia liquidi, sia solidi, in proporzioni che dipendono dai metodi di   pirolisi (pirolisi veloce, lenta, o convenzionale) e dai parametri di reazione.   Un pirolizzatore si differenzia da un gassificatore in quanto lavorando in assenza di   ossigeno (spesso si sfrutta un flusso caldo di un gas inerte quale l'azoto) attua la pirolisi propriamente detta,   mentre un gassificatore in realtà lavorando in presenza di piccole quantità di   ossigeno realizza anche una parziale ossidazione e come tecnologia rappresenta   una via di mezzo tra l'inceneritore e il pirolizzatore. Uno dei maggiori problemi legati alla produzione di energia basata sui prodotti della pirolisi è la qualità   di detti prodotti, che non ha ancora raggiunto un livello sufficientemente   adeguato con riferimento alle applicazioni, sia con turbine a gas sia con motori diesel. In   prospettiva, anche con riferimento alle taglie degli impianti, i cicli combinati   ad olio pirolitico appaiono i più promettenti, soprattutto in impianti di grande   taglia, mentre motori a ciclo diesel, utilizzanti prodotti di pirolisi, sembrano   più adatti ad impianti di piccola potenzialità. La pirolisi diretta viene generalmente attuata in apparecchiature (caldaie) in cui avviene anche lo scambio   di calore tra i gas di combustione ed i fluidi di processo (acqua, olio diatermico,   ecc.). La combustione di prodotti e residui agricoli si attua con buoni rendimenti, se si utilizzano come combustibili sostanze ricche di glucidi strutturati (cellulosa e lignina) e con contenuti di acqua inferiori al 35%. I   prodotti utilizzabili a tale scopo sono i seguenti:
  - legname in tutte le sue forme; 
- paglie di cereali; 
- residui di raccolta di legumi secchi; 
- residui di piante oleaginose (ricino, cartamo, ecc.); 
- residui di piante da fibra tessile (cotone, canapa, ecc.); 
- residui legnosi di potatura di   piante da frutto e di piante forestali; 
- residui dell’industria agro-alimentare. 
Le caldaie a letto fluido rappresentano la tecnologia più sofisticata e   dispendiosa che sta ricevendo, però, notevoli attenzioni; infatti essa permette   il conseguimento di numerosi vantaggi quali la riduzione degli inquinanti e l’elevato rendimento   di combustione. Esistono molte tecnologie particolari: il sistema Thermofuel®, ad esempio,   permette di ottenere, a partire dalla plastica, diesel sintetico attraverso pirolisi condotta a   temperature più basse (370-420 °C). La pirolisi può essere anche   utilizzata come parte integrante di altri processi quali il trattamento   meccanico-biologico e la digestione anaerobica.
  Politica europea per l'energia 
 
 All'inizio del 2007 l'Unione europea (UE) ha presentato una nuova   politica energetica, espressione del suo impegno  a favore di un'economia a   basso consumo di energia più sicura, più competitiva e più sostenibile. Una   politica comune rappresenta la risposta più efficace alle sfide energetiche   attuali, che sono comuni a tutti gli Stati membri. Essa pone nuovamente   l'energia al centro dell'azione europea, di cui è stata all'origine con i   trattati che hanno istituito la Comunità europea del carbone e dell'acciaio   (trattato CECA) e la Comunità europea dell'energia atomica (trattato Euratom),   rispettivamente nel 1951 e nel 1957. Gli strumenti di mercato (essenzialmente   imposte, sovvenzioni e sistema di scambio di quote di emissione di CO2), lo   sviluppo delle tecnologie energetiche (in particolare le tecnologie per   l'efficienza energetica e le energie rinnovabili, o le tecnologie a basso   contenuto di carbonio) e gli strumenti finanziari comunitari sostengono   concretamente la realizzazione degli obiettivi della politica. Comunicazione della Commissione al Consiglio europeo e al Parlamento   europeo, del 10 gennaio 2007, dal titolo "Una politica energetica per l'Europa"   [COM(2007)   1].
    Potenza elettrica 
  In elettrotecnica la potenza è   definita come il lavoro svolto da una carica elettrica in un campo elettrico nell'unità di tempo. Si tratta   semplicemente della definizione data in fisica nel caso   particolare in cui le uniche forze presenti siano quelle dovute al campo elettrico. Esprimendola tramite le grandezze usate in elettrotecnica si ottiene:
    
dove p(t) è la potenza entrante   (uscente) in una porta di un componente n-porta se la tensione v(t)   e la corrente i(t) sono misurati con un   verso che rispetti la convenzione degli utilizzatori (convenzione dei   generatori). Generalmente la potenza espressa in funzione del tempo viene   chiamata potenza istantanea per distinguerla dalle grandezze usate nei sistemi periodici (che sono   invece delle medie sul   periodo). 
    Potenza di picco (Wp) 
  È la potenza massima prodotta da un  dispositivo fotovoltaico in condizioni standard di funzionamento (irraggiamento 1000 W/m2 e temperatura 25°C).
  Potenza nominale 
  La potenza nominale (o massima, o di  picco, o di targa) dell’impianto fotovoltaico è la potenza elettrica dell’impianto determinata dalla somma  delle singole potenze nominali (o massime, o di picco, o di targa) di ciascun modulo fotovoltaico  facente parte del medesimo impianto, misurate alle condizioni standard (temperatura pari a 25 °C e radiazione pari a  1.000 W/m2).
  Potenziale elettrico 
  Data una regione di spazio in cui è presente un campo elettrico, si definisce   potenziale elettrico in un punto il valore dell'energia potenziale rilevato da una carica elettrica positiva di prova posta in quel punto per unità di carica. L'energia potenziale   della carica è il livello di energia che la carica possiede a causa della sua   posizione all'interno del campo elettrico; pertanto il potenziale elettrico   della carica di prova è il rapporto tra l'energia potenziale e il valore della   carica stessa, cioè:
    
Il potenziale è dunque una quantità scalare e non dipende dal valore della   carica di prova. L'unità di misura del potenziale elettrico è il "volt" (simbolo V). Si dice che tra due punti A   e B di una regione di spazio sede di un campo elettrico c'è una differenza di   potenziale di 1 V se la forza elettrica compie il lavoro di 1 J per portare una   carica di 1 C da A a B. Il potenziale elettrico, noto anche con il nome di potenziale   scalare, viene indicato dalla lettera V, o a volte anche dalla   lettera greca φ. Esso si ricava a partire dal lavoro del campo elettrico su una carica q:
    
Se vogliamo calcolare il lavoro lungo una linea l da un punto A ad un punto B dobbiamo calcolare l'integrale:
   
    Potenziamento dell’impianto fotovoltaico 
  Il potenziamento è l’intervento  tecnologico eseguito su un impianto entrato in esercizio da almeno due anni, consistente in un incremento della  potenza nominale dell’impianto, mediante aggiunta di moduli fotovoltaici la cui potenza nominale  complessiva sia non inferiore a 1 kW.
  Prefisssi del Sistema Internazionale (SI) 
  
  Vedi Zetta. 
  Processi energetici 
  Processi che comportano generazione o consumo  di energia.
  Produttore 
  Persona fisica o giuridica che produce energia elettrica, indipendentemente   dalla proprietà dell’impianto di produzione.
  Punto di connessione alla rete 
  Punto di confine tra la rete del  distributore o del gestore e la rete o l’impianto del cliente.
  Punto di consegna 
  Punto in cui l'energia elettrica viene immessa in rete (generalmente una   centrale elettrica). 
  PWR 
  Vedi:: Reattore nucleare a fissione. 
  Punto di riconsegna 
  Punto in cui l'energia elettrica viene prelevata dalla rete (generalmente   un'impresa).
  Radiazione solare 
  Energia elettromagnetica che viene emessa  dal sole in seguito ai processi di fusione nucleare che in esso avvengono. La radiazione solare (o  energia) al suolo viene misurata in kWh/m2.
  Rapporti Enea Energia - Ambiente. 
  2009-2010. 2007 - 2008. 2006. 
 Reattore nucleare a fissione 
  Un reattore nucleare a fissione è un sistema complesso in grado di   gestire una reazione a catena in modo controllato e utilizzato come componente   base nelle centrali   nucleari che possono contenere più reattori nucleari nello stesso sito.   Esistono reattori nucleari di ricerca, nei quali l'energia prodotta è   trascurabile e reattori di potenza, utilizzati dalle centrali nucleari nei quali   l'energia termica prodotta sotto forma di vapore acqueo viene convertita in energia elettrica attraverso turbine e alternatori. Allo   stato attuale tutti i reattori nucleari si basano sul processo di fissione nucleare sebbene vi siano importanti studi su reattori a fusione nucleare che in futuro dovrebbero   sostituire o affiancare gli attuali reattori a fissione.
Per una buona precisine scientifica occorre sapere che  i primi 16 reattori a fissione nucleare   naturale divennero critici circa 1,7 miliardi di anni fa. In Gabon, nelle 3 miniere di Oklo, sono   stati trovati minerali di uranio con   concentrazione anormalmente bassa di 235U; il fenomeno è stato spiegato, grazie anche al   ritrovamento di altri prodotti di decadimento, con la formazione naturale di   concentrazioni di 235U superiori (1,7 miliardi di anni fa) al 3 %, e   disposte in modo da costituire massa critica. Oggi questo non è più   possibile a causa del più veloce decadimento dell' 235U rispetto all'   238U, la cui concentrazione è ormai ovunque molto più bassa, attorno   allo 0,7 %.
Il primo reattore nucleare di costruzione umana è quello realizzato   dall'équipe di Enrico   Fermi a Chicago, nel reattore CP-1   (Chicago   Pile-1), in cui si ottenne la prima reazione a catena controllata ed autosostenuta il 2   dicembre 1942. Quasi contemporaneamente   venivano allestiti ad Oak Ridge l'impianto pilota l'X-10 (critico nel 1943) nell'ambito del laboratorio MetLab e   a Hanford il   B-reactor (critico nel settembre 1944), ambedue finalizzati alla produzione di plutonio, il primo come unità pilota   ed il secondo per la produzione in grande scala. Nel dicembre 1954 il reattore   di Obninsk, URSS divenne critico,   e fu il primo reattore nucleare per uso civile; esso produceva solo 5 MW elettrici, ma fu comunque un precursore.   Come i successori della filiera sovietica, era un reattore del tipo acqua-grafite, in cui il raffreddamento del nocciolo veniva   assicurato da acqua leggera e la moderazione dei neutroni da blocchi di grafite,   ottimo conduttore del calore oltre che efficace moderatore del flusso neutronico. Nel 1954 il reattore BORAX   (Borax-I) divenne critico, ma non avendo turbine, non produceva energia   elettrica. Dopo l'aggiunta delle turbine (e il cambio di nome a Borax-II), nel   1955 questo iniziò a produrre commercialmente energia elettrica, fornendo la   cittadina che lo ospitava (Arco, Idaho, USA), se pure in piccola quantità (6,4   MW). Borax, a differenza del predecessore Obninsk-1 e del successore Calder   Hall, era di tipo BWR (Boiling Water Reactor, o reattore ad acqua bollente, in cui il fluido di   raffreddamento è acqua   leggera) in cambiamento di fase. Nel 1956, infine, parte il primo reattore   commerciale di grande potenza, e quindi economicamente significativo, quello di   Calder Hall, in Cumbria, Regno Unito (50 MW), del tipo gas-grafite. In   Italia, la prima centrale (sempre del tipo gas-grafite GEC-Magnox, acquistata   dall'Inghilterra) fu quella di Latina,   critica (cioè "accesa") il 27   dicembre 1962 e che produceva 153 MWe   (megawatt elettrici), seguita da quella del Garigliano (1963), del tipo BWR General Electric a ciclo   duale, da 150 MWe e da quella di Trino   Vercellese (1964), del tipo PWR Westinghouse, da 260 MWe. L'IAEA a giugno 2008 elencava 439 reattori nucleari a   fissione in attività e 34 in costruzione destinati alla produzione di energia,   soprattutto in oriente (Cina, India, Russia, Korea).
Qualunque sia la tipolgia di reattore, esso ha alcuni componenti   fondamentali. La sorgente di energia è il combustibile presente nel nocciolo del reattore, composto da materiale   fissile (tipicamente una miscela di 235U e 238U),   arricchita fino al 5% in 235U, che, producendo neutroni e subendo la   fissione ad opera degli stessi, emette energia sotto forma di calore. Questo   calore è asportato da un fluido refrigerante (gassoso o liquido, o   che subisce un cambio di fase nel processo) che lo trasporta ad un utilizzatore, quasi sempre un gruppo turbo-alternatore per la produzione   di energia elettrica. Un moderatore, solitamente grafite o acqua leggera (Fermi negli esperimenti sui neutroni   termici a Roma utilizzò la paraffina, comunque elementi contenenti molto   idrogeno), rallenta la velocità dei neutroni in modo da aumentare l'importanza   delle fissoni termiche dell'235U. Le barre di controllo sono   barre metalliche (in genere leghe di argento, cadmio e indio o carburi di boro) atte ad assorbire   neutroni, ovviamente senza emetterne a loro volta; possono essere inserite nel   nocciolo e servono per tenere sotto controllo ed eventualmente arrestare la   reazione a catena di fissione. Il combustibile quindi genera in continuazione   una certa quantità (fissa) di neutroni, e quando i sistemi di controllo (le   barre) sono non inserite (almeno parzialmente), la quantità statistica di   neutroni che scompaiono nel nocciolo è pari alla quantità di neutroni prodotti   dallo stesso: questo è il cosiddetto punto di criticità del reattore. Al   di sopra di questo punto il reattore si dice sovra-critico.
I reattori cosiddetti "provati" sono quelli di cui è stata verificata la   stabilità operativa per usi civili commerciali. Oggi sono conosciuti vari tipi   di reattore nucleare, generalmente classificati in base al tipo di combustibile   utilizzato, al sistema di raffreddamento/generazione vapore e al tipo di   moderatore. I primi modelli, come si è visto, a partire dal CP-1, erano del tipo   gas-grafite, poi commercialmente sviluppato in varie versioni tra cui le   principali sono i reattori Magnox (Magnesium Uranium Oxide) (GEC) e RBMK.   Ambedue usavano (in realtà vi sono parecchi reattori RBMK tuttora in uso, e   qualche Magnox nella versione Advanced Gas Cooled Reactor) uranio   arricchito come combustibile. Il grande vantaggio dei modelli a gas è nella possibilità di utilizzare   fluidi inerti come fluido refrigerante, evitando così i   problemi di corrosione propri dell'acqua ad alta temperatura (che inoltre,   quando irradiata, si scinde parzialmente nei componenti, generando pericoloso idrogeno nonché ossigeno libero che   aggrava ulteriormente i problemi di corrosione) e nella bassa densità del   refrigerante che non assorbe quindi neutroni in maniera significativa. Il   problema maggiore, viceversa, sta nel relativamente basso coefficiente di   scambio termico del gas, e nell'impossibilità di ottenere la moderazione dei   neutroni attraverso il fluido stesso, obbligando quindi all'utilizzazione di   costose (e instabili, a temperature elevate) strutture in grafite o all'utilizzo   dell'acqua. Si sono quindi affermati i modelli raffreddati (e moderati) ad acqua, che   sostanzialmente sono delle caldaie in   cui il focolare è sostituito dall'insieme degli elementi di combustibile.   Di questi esistono due modelli, o filiere: quelli in cui la   vaporizzazione dell'acqua avviene a contatto degli elementi di combustibile, o   comunque nello stesso recipiente che le contiene, detti di tipo BWR (Boiling   Water Reactor - si vedano anche sopra i dati del Borax), che quindi inviano   in turbina un vapore più o meno debolmente radioattivo, e quelli che utilizzano   un circuito intermedio, per cui un fluido refrigerante (di solito ancora   acqua) entra a contatto del combustibile, si scalda e, senza cambiare di fase,   circola in un generatore di vapore esterno in cui cede calore ad altra acqua,   che stavolta vaporizza e genera energia elettrica nel gruppo   turbina-alternatore. Sono detti PWR (Pressurized Water Reactor). Il   vapore che arriva in turbina in condizioni di normale funzionamento non è più   radioattivo. Vi sono stati tentativi di utilizzare combustibili meno costosi (ossia uranio   non arricchito, normalmente presente in natura), e sono stati proposti due   modelli di reattore simili, e studiati in parte in collaborazione: il CiReNe (CISE Reattore   a Nebbia), sviluppato originariamente dal Centro Italiano Studi Esperienze   dell'ENEL, ed il CANDU   (Canada Deuterium Uranium) sviluppato dall'Atomic Energy Commission   Canadese. Questi reattori, per ovviare alla relativamente debole economia   neutronica dovuta ad un tenore ridotto di 235U, utilizzano come fluido   refrigerante e moderatore acqua pesante, che ha una bassissima sezione   d'urto (ossia probabilità) di cattura dei neutroni. La differenza tra le due   filiere sta nel circuito di raffreddamento, ad acqua bollente per il CiReNe (da   cui il nome di reattore a nebbia), che lo qualifica come BHWR (Boiling Heavy   Water Reactor), e ad acqua pressurizzata per il CANDU, che lo qualifica come PHWR (Pressurized Heavy   Water Reactor). La filiera CANDU ha avuto una sua affermazione commerciale   soprattutto in Canada ed in nazioni potenzialmente interessata   alle sua capacità plutonigene (India, Argentina) mentre il progetto CIRENE è   stato sospeso prima della sua conclusione, a causa della moratoria nucleare   italiana, durante la realizzazione dell'impianto prototipo a Latina. Vanno citati, tra i reattori di potenza, quelli utilizzati per la trazione.   Le necessità, in questo caso, sono quelle di leggerezza e ottimo contenimento   delle radiazioni: a tale scopo, la filiera PWR è generalmente usata, in quanto   permette di tenere turbine e generatori in zona sicura, essendo il fluido esente   da radiazioni. In realtà il circuito primario è stato realizzato anche con   fluidi diversi, come nel reattore italiano R.O.S.P.O. (Reattore Organico   Sperimentale Potenza Zero), realizzato come prototipo per la futura (e mai   realizzata) nave Enrico Fermi a propulsione nucleare, in cui venivano utilizzati   prodotti organici cerosi, simili ai comuni oli diatermici - sempre allo scopo di   ridurre le dimensioni. Malgrado i molti progetti (la nave tedesca Otto Hahn,   quella americana Savannah, e altre sono state effettivamente realizzate, ma   senza grande successo), la propulsione nucleare è oggi usata solo nei sottomarini   militari (e alcuni di ricerca), nelle grandi portaerei e nei rompighiaccio russi della classe Lenin.
Reattore nucleare a fusione. 
  Un reattore nucleare a fusione è un ipotetico sistema in grado di gestire una reazione di fusione nucleare in modo controllato. Allo stato attuale non esistono reattori nucleari a fusione operativi per produrre energia elettrica, ma gli unici impianti operativi sono piccoli impianti di ricerca in grado di sostenere la reazione di fusione nucleare per un tempo molto ridotto. Essendo la fusione nucleare una forma di energia molto interessante che potrebbe in teoria fornire energia all'umanità per un tempo illimitato si stanno effettuando ingenti investimenti in questo tipo di reattori anche se si ritiene che i primi impianti potrebbero essere operativi non prima del 2050. Tra i vari progetti di ricerca il più ambizioso attualmente è il progetto internazionale ITER. Il progetto ITER punta a sviluppare un reattore sperimentale in grado di sostenere una reazione di fusione nucleare per diversi minuti. Il progetto ITER ha un budget di 10 miliardi di Euro e va sottolineato che non mira a produrre direttamente energia elettrica ma punta a dimostrare la capacità dell'impianto di sostenere una reazione nucleare controllata basata sulla fusione nucleare che produca più energia di quanta ne consumi. Oggi è in corso la costruzione in scala 1:1 del primo reattore per la fusione del progetto ITER. Nel sito scelto di Cadarache in Francia è prevista la produzione del primo plasma [ primo feedback di processo ] entro il 2019. La produzione di energia elettrica verrà demandata al progetto successivo chiamato DEMO. DEMO si avvantaggerà dell'esperienza derivata dal progetto ITER e integrerà il reattore con tutte le infrastrutture necessarie alla produzione di energia elettrica in modo efficiente. Per ottenere una buona resa energetica il reattore del progetto DEMO dovrà essere necessariamente più grande del reattore ITER anche se le dimensioni definitive sono ancora oggetto di studio. Dopo lo sviluppo del progetto DEMO si potrà progettare una  centrale nucleare a fusione per uso industriale che quindi tenga in debita considerazione anche gli aspetti economici. La denominazione provvisoria in ambito europeo del progetto successivo a DEMO è PROTO.  I materiali che entrano nella reazione sono il deuterio, facilmente reperibile in natura, ed il trizio, che invece, a causa del suo breve periodo di decadimento, non è presente in natura. La reazione è: deuterio (2) + trizio (3) —> elio(4) + neutrone. Questo comporta che sia la centrale a dover generare la quantità di trizio richiesta per le reazioni nucleari che dovranno produrre energia (per ITER è prevista una richiesta di trizio di circa 250 g/d, mentre per DEMO, che dovrà funzionare in continuo, la richiesta sarà sensibilmente più elevata). Pertanto uno dei componenti chiave della futura centrale energetica a fusione sarà il blanket, che è la parte di centrale in cui i neutroni di reazione reagiscono con il litio 6 per produrre trizio La reazione è: litio(6) + neutrone  —> elio (4) + trizio (3) .
  Reattore nucleare AP1000 (Reattore a sicurezza passiva).  Il reattore di tipologia AP1000 è una tipologia di reattore di III generazione prodotta dalla Toshiba-Westinghouse Electric Company, sarà la prima tipologia di reattore di III Generazione a ricevere l'approvazione dall'ente di regolamentazione per il nucleare americano (NRC). Questa tipologia di reattori è essenzialmente la versione potenziata del modello AP600 (il suo predecessiore), che riesce a generare, però, fino a 1154 MW. Gli AP1000 sono fra gli ipotetici reattori che l'Italia è intenzionata a costruire per il suo nuovo piano nucleare, essendo la Ansaldo Nucleare licenziataria della Westinghouse per l'Europa, ed uno dei maggiori fornitori per i reattori AP1000 cinesi, ed avendo firmato l'Italia un piano d'intesa con gli USA per scambio di conoscenze nell'ambito nucleare. In Cina la filiera AP1000 è molto quotata, infatti nei propositi della Westinghouse e della Cina c'è l'intento di avere 100 o più reattori AP1000 in funzione o in costruzione per il 2020. Gli Scopi principali del progetto sono quelli di fornire un reattore con sicurezze maggiori, maggiore economicità della centrale e quindi competitività economica e semplificazione costruttiva, tramite una collaudata filiera di reattori PWR Westinghouse. L'AP1000 è un reattore ad acqua pressurizzata PWR a due loop, con potenza elettrica in uscita di circa 1154 MW. I sistemi di sicurezza sono incentrati sulla sicurezza passiva del reattore e sulla semplificazione in fatto di sicurezza e costruzione, questi permettono di avere alti coefficienti di sicurezza senza l'utilizzo di gruppi elettrogeni i caso di mancanza di corrente dall'esterno (come invece è necessario oggi per avere la certezza di alimentare i sistemi interni). In caso di incidente, il reattore non richiede l'intervento di un operatore per un lungo periodo, questo fa si che la possibilità di errore umano nell'emergenza sia molto ridotto, e si da anche tempo per la mobilitazione di assistenza che pervenga da fuori la centrale. La probabilità di inconvenienti è ulteriormente diminuita tramite l'utilizzo di moderni dispositivi, che sono anche ridondanti per permettere che nel caso uno fallisca, un altro entri subito in funzione senza compromettere la sicurezza, in questo modo gli effetti di potenziali conseguenze per malfunzionamenti della macchina sono molto ridotti. Ulteriori sistemi di sicurezza sono poi passivi, quindi non richiedono l'intervento umano per l'attivazione, questi sono la gravità e la convezione naturale dell'aria, che permettono (tramite le taniche di acqua sistemate sulla sommità del reattore) di raffreddare il reattore naturalmente per molte ore dopo un inconveniente grave, questo sistema è chiamato PCCS, acronimo di Passive Core Cooling System ed entra in funzione automaticamente. Le valvole in questo sistema sono infatti alimentate dalla corrente nella posizione di chiusura, venendo a mancare l'alimentazione queste si aprono e liberano il liquido refrigerante. La sicurezza di un impianto è calcolata essere, per danneggiamento grave del nocciolo, 2.41 × 10-7, molto al di sotto delle richieste dell'ente regolatore (10-4). 
   Reattore nucleare di IV generazione 
  I reattori nucleari di IV generazione (Gen IV) sono un gruppo di 6   famiglie di progetti per nuove tipologie di reattore nucleare a fissione che,   pur essendo da decenni allo studio, non si sono ancora concretizzati in impianti   utilizzabili diffusamente in sicurezza. Si ritiene saranno disponibili   commercialmente fra alcune decine di anni (2030-2040). Non si tratta delle uniche possibilità di sviluppo dopo la 3° generazione: la   ricerca sulla "4° gen." è stata promossa dal Forum Internazionale GIF (Generation IV International Forum) fondato nel 2000 dal Department of   Energy degli Stati Uniti d'America (DOE) ed a cui hanno aderito alcuni paesi. Rappresenta una proposta di evoluzione del settore, non l'unica.   Inoltre, non tutti i paesi che hanno firmato il documento d'intenti del GIF   hanno poi firmato effettivi protocolli di collaborazione tecnologica. Molti tipi di reattore sono stati considerati all'inizio del programma GIF;   comunque, la lista è stata ridotta per focalizzarsi sulle tecnologie più   promettenti e soprattutto su quelle che potevano più probabilmente soddisfare   gli obiettivi dell'iniziativa "Gen IV". Tre sistemi sono nominalmente reattori termici ed altri tre sono reattori   autofertilizzanti a neutroni veloci. Alcuni possono essere teoricamente   implementati come termici o come veloci. Il sistema VHTR é inoltre studiato per la capacità teorica di generare   calore di alta qualità (cioè ad altissima temperatura) per la produzione   d'idrogeno impiegabile forse in un futuro nelle celle a   combustibile o per altre applicazioni industriali. Tuttavia non ha un ciclo   del combustibile chiuso. I reattori a neutroni "veloci" offrono la possibilità di "bruciare" molti   tipi di elementi della serie degli attinidi e di produrre più combustibile nucleare di   quello che consumano (in gran parte plutonio, con i rischi connessi). Il reattore MSR si caratterizza anche per la possibilità di usare torio e di essere autofertilizzante anche   usando neutroni "lenti" (termici).
  Reattore nucleare europeo ad acqua pressurizzata 
Il reattore nucleare europeo ad acqua pressurizzata, meglio noto con   la sigla EPR (European   Pressurized Reactor) è un reattore nucleare di III   generazione, a fissione, nel quale la refrigerazione del   nocciolo e la moderazione   dei neutroni vengono ottenuti grazie alla presenza nel nocciolo di acqua naturale (detta anche leggera per   distinguerla dall'acqua   pesante) in condizioni sottoraffreddate. Il reattore è quindi della   tipologia PWR. È stato progettato e sviluppato principalmente dalla società francese   Framatome (Areva NP) per il mercato   Europeo, in particolare quello francese dominato dal gruppo EdF ma è   prevista la sua esportazione sia sul mercato cinese, dove sono in costruzione 2   reattori per il sito Taischan 1 nella provincia del Guangdong, che sul mercato USA nella versione US-EPR, sottoposta alla   certificazione del progetto da parte dell'ente di controllo NRC alla fine del 2007.  I principali scopi del progetto dell'EPR sono un'aumentata sicurezza e, allo   stesso tempo,  una migliore competitività economica, tramite   miglioramenti graduali  e  collaudati. Il reattore EPR può utilizzare   come combustibili ossido di uranio arricchito al 5% oppure MOX   (miscela   di ossidi di uranio e plutonio) fino al 100% del nocciolo.
Il progetto del reattore nucleare EPR prevede molteplici sistemi di   protezione sia attivi che passivi contro vari tipi di incidente:
  - quattro sistemi indipendenti di refrigerazione d'emergenza, ognuno capace da   solo di refrigerare il nocciolo del reattore dopo il suo spegnimento; 
- un contenimento metallico attorno al reattore, a tenuta per le eventuali   fuoriuscite di materiale radioattivo in caso di incidente con rottura del   circuito primario; 
- un contenitore (core catcher) ed un'area di raffreddamento passivo del   materiale fuso, nell'improbabile evento che il nocciolo di combustibile nucleare   radioattivo fuso possa fuoriuscire dal recipiente in pressione; 
- doppia parete esterna in calcestruzzo armato, con uno spessore   totale di 2,6 metri, progettata per resistere all'impatto diretto di un grosso   aereo di linea. 
Reattore Superphénix 
  Superphénix o SPX era una centrale elettrica nucleare francese sul fiume Rodano presso Creys-Malville, a circa 60km dal confine Svizzero e 100km dal   confine italiano. Alimentata da un reattore nucleare veloce   autofertilizzante sperimentale, ha terminato la produzione commerciale di   energia elettrica nel 1996 e l'impianto è   stato chiuso nel 1997. Il progetto della centrale iniziò nel 1968, dopo l'abbandono dei reattori gas-grafite. Si scelse   un reattore autofertilizzante veloce per il timore di quegli anni di venire   tagliati fuori dalle forniture energetiche (petrolio e uranio): la cosiddetta   "economia del plutonio" sembrava, date le condizioni di quegli anni, una   alternativa plausibile. La costruzione venne approvata nel 1972 e durò dal 1974 al 1981, ma la produzione di energia non   iniziò fino al 1985. I costi salirono   rapidamente durante la produzione. L'impianto fu condotto dal consorzio NERSA di cui   la EDF deteneva il 51% ed ENEL il 33%. Ci furono molte proteste popolari durante la costruzione e l'operatività: una   marcia di 60.000 persone nel luglio 1977 fu dispersa dalle forze   dell'ordine francesi con un morto e oltre un centinaio di   feriti.
La potenza nominale della centrale era di 1.200 MW, ma in tutto il periodo di   produzione non vi arrivò mai nemmeno vicino, bensì al massimo a circa il 30% di   tale potenza. La cautela era comprensibile, essendo un impianto sperimentale,   primo nel suo genere: con il passare del tempo inoltre iniziarono a verificarsi   problemi di corrosione e perdite dovute alla forte reattività chimica del sodio usato come refrigerante (fra l'altro   infiammabile al contatto di aria ed acqua). L'impianto fu chiuso temporaneamente nel settembre 1990: due precedenti   incidenti in quell'anno erano culminati in un terzo che innescò uno spegnimento   automatico del reattore, e tre mesi dopo, il 13 dicembre 1990, subì danni   strutturali (crollo del tetto della sala macchine) in seguito ad una forte   nevicata; la produzione non riprese fino al 1992, dopo una nuova autorizzazione   governativa. Dei nove anni di apertura, per ben quattro la produzione elettrica fu nulla o   trascurabile.
Recuperatore di calore entalpico. 
 E' un sistema di ricambio d'aria con le seguenti carattetristiche.
  Durante il funzionamento invernale recupera parte dell'energia, contenuta nell'aria di rinnovo espulsa dagli ambienti, che diversamente andrebbe dispersa nell'atmosfera, utilizzandola per pre-riscaldare l'aria in entrata dall'esterno.
  Durante il funzionamento estivo, lo scambio risulta maggiormente efficace nei climi più caldi, dove l'aria fresca espulsa è utilizzata per pre-raffreddare l'aria in entrata dall'esterno. 
Il recupero dell'energia dispersa implica la riduzione del fabbisogno termico dei locali dell'edificio e quindi la possibilità di scegliere un impianto di riscaldamento e di climatizzazione di taglia inferiore, con conseguente diminuzione delle emissioni nocive e sensibili risparmi a lungo termine sull'energia consumata e sui costi dell'impianto. 
 
Normalmente per il ricambio dell'aria di un ambiente si ricorre all'apertura delle finestre; questo impianto consente un notevole risparmio di energia.
   Rendimento energetico 
  La quantità di lavoro eseguita o di profitto  ottenuto per unità di risorsa energetica impiegata.
   Rendimento di combustione 
  L'efficienza di una caldaia viene quantificata con il rendimento di   combustione, che rappresenta la percentuale dell'energia derivante dalla   combustione trasferita al fluido termovettore. A esempio, in una caldaia che ha un rendimento dell'85%, il 15% dell'energia   contenuta nel combustibile va perso. In altri termini, maggiore è il rendimento   della caldaia, maggiore è il risparmio di combustibile, il che si traduce in un   risparmio energetico ed economico. Le caldaie tradizionali sono dotate di un bruciatore in cui l'aria comburente   viene convogliata con un flusso costante. Hanno un rendimento medio che si   aggira intorno all'85%-86%: nei periodi meno freddi, quando non viene erogata   tutta la potenza disponibile, l'efficienza decade in maniera significativa   perchè - non avendo un controllo significativo dell'aria comburente - la   combustione non avviene nelle condizioni ottimali. E, di conseguenza, il consumo   di combustibile aumenta in modo proporzionale. Le caldaie possono essere classificate secondo la loro efficienza energetica.   Tale distinzione è definita nel D.P.R. 660/96, regolamento di attuazione della   direttiva 92/42/CEE. Il regolamento definisce, in base alla potenza nominale, 4   classi di rendimento delle caldaie: a 1, 2, 3, e 4 stelle. 
   Relatività da Galileo a Einstein 
 Vedi articolo.
   Resilienza 
 
  In ecologia e biologia la resilienza è la capacità di un ecosistema, inclusi quelli umani come le città, o di un organismo di ripristinare l'omeostasi, ovvero la condizione di equilibrio del sistema, a seguito di un intervento esterno (come quello dell'uomo) che può provocare un deficit ecologico, ovvero l'erosione della consistenza di risorse che il sistema è in grado di produrre rispetto alla capacità di carico. Resilienza urbana. 
  Resistenza elettrica 
La resistenza elettrica è una grandezza fisica scalare che misura la   tendenza di un conduttore di opporsi al passaggio di una corrente   elettrica quando è sottoposto ad una tensione. Questa opposizione dipende dal materiale con cui è realizzato, dalle   sue dimensioni e dalla sua temperatura. Uno degli effetti del passaggio di   corrente in un conduttore è il suo riscaldamento (effetto Joule).
La resistenza è data da:
    
dove:
  - R è la resistenza tra gli estremi del componente 
- V la tensione a cui è sottoposto il componente 
- I è l'intensità di corrente che attraversa   il componente 
Nel sistema   internazionale l'unità di misura della resistenza elettrica   è l'ohm, indicato con la lettera greca   maiuscola omega:   Ω. L'equazione sopra riportata non esprime la legge di Ohm: questa equazione è semplicemente la   definizione di resistenza. La legge di Ohm, invece, si riferisce a una relazione   lineare fra corrente e tensione per alcune classi di conduttori, per i quali il   rapporto tra tensione e corrente è costante, indipendentemente dalla tensione   applicata. Per queste classi di conduttori, allora, la definizione sopra di   resistenza diventa anche la prima legge di Ohm. Nei circuiti in corrente continua, per i conduttori a resistenza costante   (per esempio fili metallici, soluzioni elettrolitiche), è valida la legge di   Ohm, che stabilisce che la corrente I è proporzionale alla tensione V applicata.   Il fattore di proporzionalità G si chiama conduttanza. Esso è il reciproco della resistenza   R. Esso vale:

La conduttanza è misurata in siemens (simbolo: una S   maiuscola). Le unità di misura riportate sono quelle del Sistema   Internazionale di unità di misura. Quando, al variare della tensione   applicata, la corrente varia in maniera proporzionale (e quindi il loro   rapporto, la resistenza, si mantiene costante) si dice che il componente ha un   comportamento ohmico in quanto segue la legge di Ohm. In generale, non esistono materiali a resistenza nulla o infinita, tali da   permettere un passaggio di corrente senza perdere parte della potenza in calore, o tali da impedire il passaggio di   qualsiasi corrente   elettrica. In altre parole, non eiste in natura nè un perfetto conduttore   elettrico nè un perfetto isolante elettrico e si può scrivere   che:
   . .
Con la corrente alternata la resistenza è generalmente dipendente dalla   frequenza ed è denominata Impedenza. L'impedenza si compone della resistenza   reale R indipendente dalla frequenza e di una reattanza X (Resistenza fittizia), che è costituita   da induttori e rispettivamente capacità.
Z = R + jX
Operando un condensatore o un induttore in un circuito a corrente alternata, vale   comunque anche per loro la legge di Ohm. Un condensatore presenta allora la sua   resistenza d'isolamento e l'induttore la resistenza del suo avvolgimento. La reattanza induttiva XL e quella capacitiva XC sono   delle resistenze fittizie. Esse provocano uno sfasamento tra la tensione e la   corrente. I componenti circuitali ideali non trasformano nessuna energia in   calore. Nella pratica i componenti hanno sempre una parte ohmica. In corrente   continua la reattanza induttiva di un induttore ideale è nulla e si aumenta   in corrente alternata col crescere della frequenza:

La reattanza capacitiva di un condensatore ideale è illimitata in corrente   continua e diminuisce in corrente alternata col crescere della frequenza:

    Resistività  elettrica 
  La resistività elettrica, anche detta resistenza elettrica   specifica, è l'attitudine di un materiale a opporre resistenza al passaggio   delle cariche   elettriche. La resistività ρ, la cui unità di misura nel sistema   internazionale (SI) è ohm per metro, è indipendente dalla geometria del provino ma è   correlata ad R attraverso l'espressione:
    
dove:
  - ρ è la resistività statica misurata in ohm per metro (Ω x   m) 
- R è la resistenza elettrica di un campione   specifico di materiale (misurata in ohm), 
- l è la distanza tra i punti tra i quali è misurata la tensione   (misurata in metri) 
- S è l'area della sezione del   campione perpendicolare alla direzione della corrente (misurata in metri   quadrati). 
Da questa equazione, ne deriva l'inversa dove, nota la lunghezza L, la   sezione S e la resistività ρ specifica di un conduttore, la sua   resistenza R è data da
    
La resistività può anche essere definita come:
    
dove:
  - E è l'intensità del campo elettrico misurato in volt al metro, 
- J è la densità di corrente in ampere al metro quadrato. 
Infine è anche definita come l'inverso della conduttività elettrica:
    
dove σ è la conduttività elettrica.
 Rete 
  Una "rete" è un insieme di stazioni elettriche, di linee aree o in cavo e di   altri impianti elettrici collegati tra di loro allo scopo di convogliare   l'energia elettrica prodotta dalle centrali verso i consumatori finali.
    Rete di trasmissione nazionale (RTN) 
  E’ l’insieme di linee di una rete usata  per trasportare energia elettrica, generalmente in grande quantità, dai centri di produzione alle aree di  distribuzione e consumo come individuata dal decreto del Ministro dell’industria 25 giugno 1999 e  dalle successive modifiche e integrazioni.
  Rete interconnessa 
  Complesso di reti di trasmissione e distribuzione collegate mediante uno o più   dispositivi di interconnessione.
  Riciclaggio. 
  Rifacimento dell’impianto fotovolatico 
  E’ l’intervento impiantistico-tecnologico  eseguito su un impianto entrato in esercizio da almeno venti anni che comporta la sostituzione con  componenti nuovi almeno di tutti i moduli fotovoltaici e del gruppo di conversione della corrente  continua in corrente alternata.
    Rifiuti, Creare valore dai 
  Vai all'articolo che tratta l'argomento. 
  Rigassificatore 
Un rigassificatore è un impianto che permette di riportare lo stato fisico di   un fluido dallo stato liquido a quello gassoso. Solitamente il gas viene liquefatto (da cui la definizione di gas   naturale liquefatto) mediante un forte abbassamento della temperatura, per poter essere   trasportato in apposite navi dette metaniere e ritrasformato nello stato aeriforme per poter essere immesso   nelle condotte della rete di   distribuzione. Questa soluzione viene adottata quando il luogo di produzione del   gas naturale è lontano dal luogo di utilizzo, e non è conveniente realizzare un   collegamento mediante gasdotto. Il trasporto in forma liquida è conveniente   rispetto al trasporto in forma gassosa grazie alla densità molto superiore, che   richiede volumi di trasporto molto inferiori. Raggiunto il Rigassificatore il metano viene immagazzinato in un   contenitore criogenico, e riportato in forma gassosa e immesso nella rete quando   ve n'è il bisogno. Il processo di rigassificazione viene avviato con l'attracco di una metaniera   presso il pontile dell'impianto. Il gas in forma liquida, a bassa temperatura (-160°C) e ad alta pressione viene inviato in un   serbatoio di stoccaggio dove mantiene le medesime condizioni fisiche.   Successivamente viene inviato ad un vaporizzatore che agendo sulla temperatura e   sulla pressione effettua la gassificazione con l'espansione del gas tornato allo   stato naturale. La variazione di temperatura avviene in genere tramite lo   scambio termico in fasci tubieri tra gas liquido e acqua mare, che cede il   proprio calore al gas; la pressione invece viene ridotta tramite l'espansione del gas in appositi   serbatoi. A questo punto il gas può essere immesso nella rete di distribuzione.
  Risorse non  rinnovabili 
  Ogni risorsa finita presente in natura che,  relativamente alla scala cronologica dell'uomo, una volta esaurita non può  essere rinnovata. La maggior parte delle risorse finite possono rinnovarsi solo  in un intervallo di tempo geologico e tutti i combustibili fossili e le risorse  minerarie rientrano in questa categoria. Negli ultimi anni, in cui  l'esaurimento delle risorse è divenuto un fatto sempre più comune, il processo  del riciclaggio ha ridotto la dipendenza delle risorse non rinnovabili ancora  da estrarre.
 Risorse rinnovabili 
  Ogni prodotto che in teoria non può essere  totalmente consumato grazie alla sua capacità di riprodursi (biologicamente) o  di rigenerarsi (fisicamente). Le risorse rinnovabili appartengono alle fonti  inesauribili (come l'energia solare), ad un importante ciclo fisico (come il  ciclo idrologico), oppure ad un sistema biologico (come tutte le piante e gli  animali che si riproducono). Negli ultimi anni, l'attività dell'uomo ha  gravemente ridotto alcune risorse precedentemente classificate quali  rinnovabili, per esempio il patrimonio ittico del Mare del Nord e numerose  foreste. Questo si è verificato quando la risorsa è stata sfruttata ad un ritmo  maggiore rispetto a quello con cui è in grado di rinnovarsi.
  Risparmio energetico. 
  Sotto il nome di risparmio energetico si annoverano varie tecniche atte a ridurre i consumi dell'energia necessaria allo svolgimento delle diverse attività umane, senza cadere nel  Paradosso di Jevons. Il risparmio può essere ottenuto sia modificando i processi energetici in modo che ci siano meno sprechi, sia utilizzando tecnologie in grado di trasformare l'energia da una forma all'altra in modo più efficiente, sia ricorrendo all'auto-produzione.
 Uno degli esempi più comuni è dato dalla sostituzione delle lampadine ad incandescenza con quelle fluorescenti che emettono una quantità di energia luminosa diverse volte superiore alle prime a parità di energia consumata.
Anche nel riscaldamento degli edifici ci sono accorgimenti più o meno semplici per risparmiare energia, come l'uso delle valvole termostatiche, l'uso di cronotermostati ed altri più impegnativi, come la sostituzione degli infissi obsoleti, delle caldaie vecchie con caldaie a condensazione, l'isolamento termico delle pareti.
Un risparmio energetico si può avere anche a livello di produzione di energia elettrica utilizzando sistemi di cogenerazione atti a migliorare i rendimenti dei vari processi, che consistono in tecnologie atte ad ottenere energia elettrica e calore; oppure si utilizzano in "cascata" gli stessi flussi energetici a crescenti entropie per utenze differenziate o, infine, si effettuano forme di recupero energetico a circuito chiuso.
Oppure si sfrutta l'energia dissipata nel moto degli esseri umani o delle automobili, come è già stato fatto in Olanda, ad esempio con pavimenti sensibili alla pressione, posti nelle scale dei metrò più frequentati, che producono energia elettrica.
Utilizzare energia elettrica per produrre calore rappresenta uno spreco perché si trasforma un'energia nobile in calore, che è un'energia di seconda specie. In base ai primi due principi della termodinamica, l'energia meccanica-elettrica può interamente essere convertita in calore, mentre il calore può essere riconvertito solo in parte in energia. Questo spreco deriva dal fatto che molte forme di energia (termoelettrica e geotermoelettrica, nucleare, solare) sono trasformate in calore usato per produrre energia elettrica che viene utilizzata per il riscaldamento: ad ogni passaggio c'è aumento di entropia e perdita di rendimento termodinamico. Talora il riscaldamento elettrico conviene dal punto di vista dell'economia individuale. In Francia, ad esempio, è diffuso perché l'energia elettrica prodotta col nucleare costa meno del riscaldamento col metano.
Utilizzare per la climatizzazione degli ambienti pompe di calore e recuperatori di calore. Agevolazioni fiscali per il risparmio energetico.
  Ritiro dedicato 
  Il ritiro dedicato è una modalità semplificata a disposizione dei produttori per la vendita dell’energia elettrica immessa in rete, in alternativa ai contratti bilaterali o alla vendita diretta in borsa. Consiste nella cessione dell’energia elettrica immessa in rete al Gestore dei Servizi Energetici – GSE S.p.A. (GSE), che provvede a remunerarla, corrispondendo al produttore  un prezzo per ogni kWh ritirato.  Al GSE è attribuito il ruolo di: 
•soggetto che ritira commercialmente l'energia elettrica dai produttori aventi diritto e la rivende sul mercato elettrico; 
•utente del dispacciamento in immissione e utente del trasporto in immissione in relazione alle unità di produzione nella disponibilità dei produttori; 
•interfaccia unica, in sostituzione del produttore, verso il sistema elettrico tanto per la compravendita di energia quanto per i principali servizi connessi. 
A chi è rivolto 
 
 
Possono richiedere l’accesso al regime di ritiro dedicato gli impianti alimentati da fonti rinnovabili e non rinnovabili che rispondano alle seguenti condizioni: 
 
•potenza apparente nominale inferiore a 10 MVA alimentati da fonti rinnovabili, compresa la  produzione imputabile delle centrali ibride;
•potenza qualsiasi per impianti che producano energia elettrica dalle seguenti fonti rinnovabili: eolica, solare, geotermica, del moto ondoso, maremotrice, idraulica (limitatamente agli impianti ad acqua fluente);
•potenza apparente nominale inferiore a 10 MVA alimentati da fonti non rinnovabili, compresa la produzione non imputabile delle centrali ibride; 
•potenza apparente nominale uguale o superiore a 10 MVA, alimentati da fonti rinnovabili diverse dalla fonte eolica, solare, geotermica, del moto ondoso, maremotrice e idraulica, limitatamente, per quest’ultima fonte, agli impianti ad acqua fluente, purché nella titolarità di un autoproduttore.
 Rivoluzioni scientifiche 
  Vedi articolo. 
Clicca l'iniziale per trovare la parola cercata
A B C 
D E F 
G H I J K 
L M N O 
P Q R V W X Y Z 
 
S  T  U 
  Scambio 
  Modalità di riconciliazione tra l’energia elettrica consegnata e riconsegnata,   applicata nel caso in cui la consegna e la riconsegna dell’energia elettrica non   avvengono simultaneamente. 
   Scorie radioattive. 
  In genere si definisce scoria radioattiva lo scarto di combustibile nucleare esausto derivante dalla fissione nucleare. Questa definizione però è incompleta, il combustibile esausto è infatti considerato scoria nucleare di III categoria, cioè scorie ad alta radiotossicità e a grande persistenza. Si classificano scorie di I e II categoria invece prodotti contaminati o rifiuti radiologici da ambito nucleare, industriale e radioterapico; per esempio le tute antiradiazioni usate da chi lavora nelle centrali hanno una radioattività bassissima e sono classificate come scorie nucleari di I categoria. 
   Semiconduttori 
  I semiconduttori sono materiali che hanno una resistività intermedia tra i conduttori e   gli isolanti.   I semiconduttori sono alla base di tutti i principali dispositivi elettronici e   microelettronici quali i transistor, i diodi e i diodi ad emissione luminosa (LED). Le proprietà dei semiconduttori diventano   interessanti se vengono opportunamente drogati con impurità. Le loro caratteristiche quali   resistenza, mobilità, concentrazione dei portatori di carica sono importanti per   determinare il campo di utilizzo. La risposta di un semiconduttore a una   portante dipende dalle sue caratteristiche intrinseche e da alcune variabili   esterne come la temperatura.  La principale caratteristica dei solidi è la distribuzione di livelli   energetici in bande separate da intervalli proibiti. Nei conduttori vi è la   possibilità per gli elettroni di accedere a livelli vuoti ricevendo energia da   un campo elettrico esterno; questo comporta una densità di corrente concorde al   campo. Consideriamo la configurazione a bande di conduzione. Nei conduttori   l'ultima banda non è completamente riempita e quindi esistono livelli permessi   non vuoti e accessibili. Questa banda è la banda di conduzione. Gli elettroni delle   bande inferiori, che sono tutte piene, non acquistano energia e non influiscono   nel processo di conduzione. L'ultima banda piena si chiama banda di valenza. La   configurazione delle bande di conduzione, non è l'unica che permetta di avere   proprietà di conduzione. Può accadere che l'ultima banda completamente piena si   sovrapponga a quella successiva semivuota. Questa sovrapposizione spiega perché,   ad esempio, il magnesio ha una buona   conducibilità elettrica pur avendo la banda di conduzione vuota come gli   isolanti. Nel Mg la banda di conduzione (orbitali 3p) è vuota ma non c'è il gap   energetico con la banda di valenza piena 3s perché questa "sale" a coprire parte   della banda 3p. Non sono conduttori i solidi refrattari in cui l'ultima banda contenente   elettroni è completamente piena e non è sovrapposta alla banda successiva.   Questa è la configurazione che caratterizza gli isolanti e i semiconduttori.   L'ampiezza della zona proibita è definita energia di gap.
Semiconduttori intrinseci. Nel silicio e nel germanio l'energia di gap a temperatura   ambiente (300 K) è di E = 1.12 eV per il silicio, E = 0.42 eV per il   germanio. Questi solidi si comportano come isolanti a temperature prossime allo zero assoluto.   Quando la temperatura aumenta non è trascurabile la probabilità che gli ultimi   elettroni, presenti nella banda di valenza, possano passare alla banda di   conduzione, per eccitazione termica. Gli elettroni passati alla banda di   conduzione sotto l'azione di un campo elettrico esterno danno luogo a una densità di corrente je. Ogni elettrone che passa dalla   banda di valenza alla banda di conduzione, lascia un livello vuoto definito lacuna. La presenza delle lacune rende disponibili altri livelli che possono essere   occupati da altri elettroni della banda di valenza e quindi si può avere un moto   ordinato di cariche, sotto l'azione di un campo elettrico anche nella banda di   valenza. Si parla quindi di una densità di corrente nella banda di valenza jh.. Chiamando ne, nh le concentrazioni degli   elettroni e delle lacune e ve, vh le velocità di deriva, una   opposta e una concorde al campo elettrico esterno, la densità di corrente totale   è data da

e considerando le mobilità (le mobilità sono diverse tra di loro perché   descrivono due condizioni fisiche diverse)
    
abbiamo che
    
Nei semiconduttori descritti sin qui, le cariche sono quelle fornite   esclusivamente dagli atomi del semiconduttore stesso. In questa condizione  ;   questa uguaglianza definisce i semiconduttori intrinseci per i quali   abbiamo che
;   questa uguaglianza definisce i semiconduttori intrinseci per i quali   abbiamo che
    
dove σi si chiama conduttività del materiale. La concentrazione ni dei   portatori di carica dipende dalla temperatura secondo la 
funzione  dove C è una costante che dipende dal materiale e
 dove C è una costante che dipende dal materiale e  è la costante di Boltzmann. Questa
 è la costante di Boltzmann. Questa 
formula è valida quando  verificata sempre quando il materiale è solido.
 verificata sempre quando il materiale è solido. 
Semiconduttori estrinseci o drogati sono quei semiconduttori ai   quali vengono aggiunte impurità tramite il processo di drogaggio. Piccole percentuali di atomi diversi   aumentano le proprietà di conduzione del semiconduttore: per quanto detto sui   legami dei semiconduttori intrinseci, sappiamo che questi hanno legami   tetravalenti cioè ogni atomo è legato ad altri quattro atomi dello stesso tipo   nel reticolo cristallino, ciò è dovuto   all'esistenza di quattro elettroni di valenza degli atomi (silicio, germanio) del semiconduttore. Aggiungendo atomi   pentavalenti cioè che hanno cinque elettroni di valenza entro il conduttore (fosforo, arsenico, antimonio) si ha un aumento di elettroni di   conduzione: questo tipo di drogaggio viene chiamato drogaggio di tipo   n. Se invece aggiungiamo atomi trivalenti al semiconduttore cioè atomi che hanno   tre elettroni di valenza nei livelli energetici più esterni (boro, gallio, indio), questi creano delle cosiddette trappole per gli elettroni, cioè creano legami che non sono stabili entro il conduttore e   attraggono gli elettroni liberi in modo da stabilizzarsi. A tutti gli effetti,   l'assenza di elettroni all'interno del reticolo cristallino di un semiconduttore   può essere considerata come una presenza di una carica positiva detta lacuna che   viaggia entro il conduttore esattamente come l'elettrone (ovviamente tenendo   conto della carica). Questo tipo di drogaggio viene chiamato drogaggio di   tipo p. Statisticamente un semiconduttore drogato tipo n o tipo p segue la legge di   azione di massa, cioè in un semiconduttore estrinseco:
    
cioè il prodotto delle concentrazioni (numero elettroni o numero lacune per   metro cubo) rimane costante. Siano ND, NA le   concentrazioni di impurezze rispettivamente degli atomi pentavalenti e   trivalenti: esse sono il numero di atomi droganti per metro cubo immessi nel   semiconduttore, D sta a significare che gli atomi sono donatori cioè   forniscono elettroni, A che sono accettori cioè forniscono lacune. In un   semiconduttore tipo n,  :
:
    
cioè il numero di elettroni di conduzione in un semiconduttore tipo n è circa   uguale a quello delle impurità pentavalenti presenti (o meglio, la   concentrazione di elettroni liberi è approssimativamente uguale alla densità di   atomi donatori). Dalla legge di azione di massa deriva che:
   . .
Ovviamente relazioni analoghe valgono anche per i semiconduttori drogati tipo   p.
   . .
La corrente nei semiconduttori. La corrente nei semiconduttori può essere dovuta sia all'azione di un campo   elettrico esterno sia alla presenza di un gradiente di concentrazione di   portatori di carica. Il primo tipo di corrente è la classica corrente   elettrica detta corrente di deriva o di drift, la seconda avviene per   il fenomeno della diffusione   elettrica. La densità di corrente di diffusione per le lacune e per gli elettroni   sono:
    
    
dove q è ovviamente la carica, Dp, Dn sono costanti di diffusione e le frazioni rappresentano esattamente i gradienti   delle concentrazioni (p, n) in funzione della lunghezza. La corrente totale in un semiconduttore sarà allora la somma di queste due   correnti e sarà descritta dall'equazione detta equazione di drift-diffusion:
    
    
dove μp, μn sono le mobilità dei portatori di carica.
I coefficienti D, μ sono fenomeni   termodinamici e quindi non sono fra loro indipendenti ma vale l'equazione   di Einstein:
    
dove VT è l'equivalente   in tensione della temperatura e vale  ,   dove k è la costante di Boltzmann e T la temperatura   assoluta in gradi kelvin.
,   dove k è la costante di Boltzmann e T la temperatura   assoluta in gradi kelvin. 
Giunzione p - n. Una giunzione p-n può   essere creata drogando regioni vicine di un semiconduttore con droganti di tipo   p e di tipo n. Se una tensione elettrica positiva viene applicata al lato di   tipo p, i portatori di carica positivi, le lacune, maggioritari in questa   regione sono spinti verso la giunzione. Ugualmente, i portatori di carica   maggioritari nel lato n, gli elettroni, vengono attratti dalla tensione positiva   e quindi sono attratti verso la giunzione. Poiché si ha una abbondanza di   portatori di carica presso la giunzione, la corrente può scorrere attraverso la   giunzione, sotto l'azione di una sorgente, come una batteria. Se invece la   polarizzazione della tensione viene invertita, le lacune e gli elettroni vengono   allontanati dalla giunzione, lasciando una regione di silicio quasi non   conduttore che non consente il flusso di corrente. La giunzione p-n è la base   del dispositivo elettronico chiamato diodo, che consente il flusso di corrente solo in una   direzione del dispositivo. Due giunzioni p-n molto ravvicinate tra di loro formano invece il dispositivo   a tre terminali transistor bipolare (che può   essere o p-n-p o n-p-n).  
 
 Servizi ausiliari 
  Servizi necessari per la gestione di una rete di trasmissione o distribuzione   quali ad esempio i servizi di regolazione di frequenza, riserva, potenza   reattiva, regolazione della tensione e riavviamento della rete.
   Sievert 
 Il sievert (simbolo Sv) è l'unità di misura della dose equivalente di radiazione nel Sistema Internazionale ed è una misura degli effetti e del danno provocato dalla radiazione su un organismo. La dose equivalente ha le stesse dimensioni della dose assorbita, ovvero energia per unità di massa. Nel Sistema Internazionale si ha: 1Sv=1J/1kg=m2/s2. Per dare un'idea del valore di un sievert, si tenga presente che la dose che in media un uomo assorbe in un anno per esposizione alla radioattività naturale è di 2,4 millisievert. Una radiografia ordinaria comporta per il paziente un assorbimento di 1 millisievert, una TAC comporta una dose di 3 ~ 4 millisievert, invece per una PET o una scintigrafia si va dai 10 ai 20 millisievert. In radioterapia si forniscono invece dosi molto più massicce di radiazioni, dell'ordine delle decine di millisievert, anche oltre i 40 millisievert, ma concentrate limitatamente ed esclusivamente sul tumore da distruggere. Per quanto riguarda gli effetti sulla salute, 1 sievert assorbito in un'ora può causare lievi alterazioni temporanee dell'emoglobina. 2~5 sievert causano nausea, perdita dei capelli, emorragie. 4 sievert assorbiti nel giro di una settimana su tutto il corpo portano alla morte nel 50% dei casi se non si interviene terapeuticamente. Oltre 6 sievert, la sopravvivenza è improbabile.  Va considerata anche l'intensità di dose equivalente definita come la dose equivalente ricevuta nell'unità di tempo o tasso di dose. L'intensità di dose equivalente si misura in sievert al secondo (Sv/s). Infatti, per quanto il danno biologico sia direttamente legato alla dose equivalente, un organismo ha una certa facoltà di riparare nel tempo il danno biologico causato dalla radiazione.
   Silicio 
E'  l'elemento chimico della tavola periodica degli elementi che ha come   simbolo Si e come numero atomico il 14. Un metalloide tetravalente, il Silicio è   meno reattivo del suo analogo chimico, il carbonio. È il secondo elemento per abbondanza nella crosta terrestre dopo l'ossigeno, componendone il   25,7% del peso. Si trova in argilla, feldspato, granito, quarzo e sabbia, principalmente in forma di biossido di silicio, silicati e alluminosilicati (composti contenenti silicio, ossigeno e metalli). Il silicio è il componente   principale di vetro, cemento, semiconduttori, ceramica e silicone. Nella sua forma cristallina, il silicio ha colore grigio e una lucidità   metallica. Anche se è un elemento relativamente inerte, reagisce con gli alogeni e gli alcali diluiti, ma la   maggior parte degli acidi (eccetto l'acido fluoridrico)   non lo intaccano. Il silicio elementare trasmette più del 95% di tutte le lunghezze d'onda della luce infrarossa. Il silicio è alla base di tutti i silicati, minerali formati da silicio e ossigeno più altri   elementi in forma ionica. I silicati sono contenuti nei magmi e per la struttura   tetraedica della silice, il magma diventa   più viscoso, e capace di trattenere maggiori quantità di gas. In base al   contenuto di silice si determina l'acidità di un magma e delle rocce dal quale   derivano. Se è poco presente il magma si dirà basico. Il silicio è un elemento molto utile, ed è vitale per molte industrie. Il diossido di silicio in forma di sabbia e argilla è un importante   ingrediente del cemento e dei mattoni, ed è molto importante per la vita animale e vegetale. Le diatomee estraggono   la silice dall'acqua per costruire i muri protettivi delle loro cellule; gli equiseti lo   concentrano nel fusto della pianta usandolo per conferirgli robustezza e   notevole resistenza alla masticazione, per scoraggiare gli erbivori. Altri   usi:
  - È un materiale refrattario usato nella   produzione di materiali ad alte temperature, e i suoi silicati sono impiegati   nella fabbricazione di smalti e terraglie. 
- Il silicio è un importante costituente di alcuni tipi di acciaio; il suo limite di concentrazione è del 5%, in   quanto oltre si ha un notevole abbassamento della resilienza a causa del suo potenziale di   accrescimento della grana cristallina. Rende inoltre possibile far separare   grafite negli acciai anche già a partire da concentrazioni di carbonio maggiori di 0,50%. Si segnala la sua presenza   (1-2%) negli acciai per molle, dove   accresce il limite elastico, avvicinandolo a quello di rottura, e favorisce la temprabilità. 
- La silice della sabbia è un componente principale del vetro. 
- Il carburo di   silicio, chiamato anche carborundum, è uno dei più importanti abrasivi. 
- Il silicio ultrapuro è un semiconduttore intrinseco (o puro) e può essere drogato con arsenico, fosforo, gallio o boro per renderlo più conduttivo e utilizzarlo in transistor, celle solari (solar cells) , e altre apparecchiature a semiconduttori, che sono   utilizzate in elettronica e altre applicazioni ad alta tecnologia. Esistono due   tipi di drograggio legati al silicio che permettono di dare eccesso di elettroni   alla banda di conduzione (semiconduttore di tipo n) o lacune di elettroni alla   banda di valenza (semiconduttore di tipo p). 
- Il silicio può essere usato nei laser per produrre luce coerente con una lunghezza   d'onda di 4560 angstrom. 
- I siliconi sono composti flessibili contenenti legami silicio-ossigeno o silicio-carbonio; sono ampiamente usati in forma di gel per impianti artificiali del seno e per le lenti a   contatto. 
- Il silicio   idrogenato amorfo si è mostrato promettente per la produzione di celle   solari e apparati elettronici a basso costo. 
- La silice è uno dei principali ingredienti dei mattoni a causa della sua   bassa attività chimica. 
  La produzione. Il silicio viene preparato commercialmente tramite riscaldamento di silice ad   elevato grado di purezza, in una fornace elettrica usando elettrodi di carbonio.   A temperature superiori a 1900°C, il carbonio riduce la silice in silicio   secondo l'equazione chimica
  - SiO2 + C → Si + CO2 
Il silicio liquido si raccoglie in fondo alla fornace, e   viene quindi prelevato e raffreddato. Il silicio prodotto tramite questo   processo viene chiamato silicio di grado metallurgico(MGS) ed è puro al   98%. Per raggiungere gradi di purezza superiori necessari ad esempio per   realizzare dispositivi elettronici a semiconduttore, è necessario praticare un   ulteriore purificazione ad esempio con il metodo Siemens.
Purificazione con metodi fisici. Le prime tecniche di purificazione del silicio erano basate sul fatto che   quando il silicio viene fuso e risolidificato, l'ultima parte di silicio che   solidifica contiene la maggior parte delle impurità. Il primissimo sistema di   purificazione, descritto nel 1919 e usato su   scala limitata per la fabbricazione di componenti dei radar durante la seconda guerra mondiale, richiedeva la   polverizzazione del silicio di grado metallurgico e la sua parziale dissoluzione   in acido. Quando veniva polverizzato, il silicio si spezzava in modo che le zone   più deboli e ricche di impurità restassero all'esterno del risultante grano di   silicio. come risultato, il silicio ricco di impurità era il primo a   disciogliersi quando trattato con l'acido, lasciando un prodotto più puro. Nella fusione a   zona, il primo metodo di purificazione del silicio ad essere utilizzato su   scala industriale, sbarre di silicio di grado metallurgico venivano riscaldate   partendo da una delle sue estremità, fino a quando questa iniziava a fondersi.   Il riscaldatore quindi veniva lentamente spostato lungo la sbarra mantenendo una   piccola porzione fusa mentre il silicio si raffreddava e risolidificava dietro   di essa. Poiché la maggior parte delle impurità tendeva a rimanere nella parte   fusa piuttosto che risolidificarsi, alla fine del processo queste si erano   spostate nell'ultima parte della sbarra ad essere fusa. Questa estremità veniva   quindi tagliata e gettata, ripetendo il processo se una purezza più elevata era   necessaria. 
Purificazione con metodi chimici.Oggigiorno il silicio viene purificato convertendolo in un composto che può   essere purificato più facilmente del silicio stesso, e quindi convertito di   nuovo in silicio puro. Il triclorosilano è il composto di silicio più comunemente usato in questo processo, anche se a   volte si utilizzano anche il tetracloruro di silicio e il silano. Questi composti, liquidi o gassosi,   vengono purificati per distillazione frazionata fino ad ottenere una miscela di   composti di solo silicio. Dopodiché questi gas vengono soffiati sopra a del silicio ad alta temperatura e si decompongono,   depositando silicio policristallino ad alta purezza. Nel processo   Siemens, sbarre di silicio ultrapuro sono esposte al triclorosilano a   1150°C; il gas di triclorosilano si decompone e deposita dell'altro silicio   sulla sbarra, allargandola secondo la reazione chimica
  - 2 HSiCl3 → Si + 2 HCl + SiCl4 
Il silicio prodotto da questo e da processi simili viene chiamato silicio   policristallino. Il silicio policristallino ha un livello di impurità pari a   1 parte per miliardo o inferiore. 
Cristallizzazione. Il processo   Czochralski viene  usato per creare cristalli singoli di silicio ad   alta purezza, che vengono impiegati nei semiconduttori a stato solido. In figura è mostrata una barra di silicio monocristallino. 
  

Il processo Czochralski è una tecnologia introdotta nei sistemi   produttivi industriali agli inizi degli anni   ‘50, che permette di ottenere blocchi di silicio di estrema purezza con la forma di pani   cilindrici. Il processo prende il nome dal ricercatore polacco Jan Czochralski,   che lo scoprì nel 1916 mentre stava   studiando la cristallizzazione dei metalli. Come abbiamo visto, il Silicio è il materiale di base   per la realizzazione dei semiconduttori, (transistor, circuiti integrati, microprocessori) ed altri dispositivi   microelettronici. Per la creazione di un circuito integrato "planare" (cioè con i componenti   disposti su un piano) è  necessario avere un substrato di semiconduttore estremamente puro, detto wafer, altrimenti si compromette il   funzionamento del circuito finale. Il wafer deve essere formato da silicio puro e   questi atomi devono essere disposti "ordinatamente" in un reticolo cristallino   (monocristallino); in natura infatti il silicio si può trovare (come normalmente   accade) anche in forma amorfa, con gli atomi che non risultano disposti secondo   un determinato reticolo. Il silicio è un atomo tetravalente, in quanto   appartenente al quarto gruppo della tavola periodica; la disposizione degli   elettroni di legame fa si che una struttura cristallina di silicio sia formata   da un insieme di piramidi a base quadrata, ognuna delle quali data da un atomo   che possiamo considerare trovarsi nel centro della piramide e dai quattro   elettroni di legame che si vengono sostanzaialmente a trovare sui vertici della   struttura. Il processo consiste nel sollevamento verticale (a bassissima velocità) di un seme monocristallino di silicio, immerso inizialmente per pochi   millimetri in un crogiolo contenete silicio puro fuso. Il seme monocristallino è, in   pratica, una bacchetta con sopra un sottile strato di silicio in forma   monocristallina. Gli atomi di   silicio fuso, a contatto con il seme monocristallino, si orientano   secondo il reticolo atomico della struttura del silicio; si tratta di un processo simile alla   formazione di un cristallo di quarzo, ma con la differenza che in natura un   cristallo di quarzo si forma in milioni   di anni, mentre con questo processo di laboratorio un "pane" di silicio   monocristallino si ottiene in pochi giorni. La temperatura del silicio nel crogiuolo è mantenuta di pochi gradi superiore   a quella di fusione, e aderendo al seme monocristallino, che gradualmente   viene estratto dalla massa fusa, si solidifica molto rapidamente conservando la   struttura monocristallina del seme a cui aderisce. Il controllo rigoroso   della temperatura del materiale fuso, dell'atmosfera nella camera, e della   velocità di estrazione, nonché assenza assoluta di vibrazioni, consente la   produzione di fusi perfettamente cilindrici e altamente puri, hanno   praticamente l'aspetto di una sorta di "mortadella di vetro" (in effetti, il   silicio puro monocristallino ha l'aspetto e la fragilità del vetro). Per fare   un'analogia, il processo di formazione del cilindro è vagamente simile a quello   per la creazione di zucchero filato. L'operazione successiva consiste nel tagliare il fuso tramite un disco   diamantato, ottenendo i sottili dischi con spessore di pochi decimi di   millimetro chiamati wafer; i Wafer costituiranno quindi il   supporto (substrato) per i diversi dispositivi elettronici. Dato che la quantità   di dispositivi ricavabili da una singola fetta è proporzionale al suo diametro,   col tempo si è cercato di realizzare fusi con diametro sempre maggiore;   attualmente si realizzano fusi con un diametro di circa 30 centimetri;   considerando che l'area di silicio necessaria ad un microprocessore è di circa   un centimetro quadro, da un wafer di 20 centimetri di diametro se ne ricavano   300 (un diametro di 20 cm produce un'area utilizzabile di quasi 400 cm quadri),   mentre da un wafer con diametro di 30 centimetri se ne possono ricavare fino a   700 (area di 800-900 cm quadri).
   Silicio amorfo  
  Tipo di silicio per celle fotovoltaiche i  cui atomi non sono legati tra loro secondo uno schema cristallino. 
   Silicio cristallino 
  Tipo di silicio a struttura cristallina  (monocristallino o policristallino). Vedi figura. 
   Silicio monocristallino 
  Silicio costituito da un singolo  cristallo.
   Silicio policristallino 
  Silicio costituito da più cristalli.
   Sistema Elettrico Nazionale 
  Complesso degli impianti di produzione, delle reti di trasmissione e di   distribuzione nonché dei servizi ausiliari e dei dispositivi di interconnessione   e dispacciamento ubicati nel territorio nazionale.
   Sistemi ausiliari 
  Servizi necessari per la gestione di una rete di trasmissione o distribuzione   quali ad esempio i servizi di regolazione di frequenza, riserva, potenza   reattiva, regolazione della tensione e riavviamento della rete.
     Sistemi semplici di produzione e consumo 
I sistemi semplici di produzione e consumo (SSPC) sono sistemi caratterizzati dall’insieme dei sistemi elettrici, connessi direttamente o indirettamente alla rete pubblica, all’interno dei quali il trasporto di energia elettrica per la consegna alle unità di consumo che li costituiscono non si configura come attività di trasmissione e/o di distribuzione, ma come attività di autoapprovvigionamento energetico.
Tali sistemi comprendono: 
a) i sistemi di autoproduzione (SAP); 
b) i sistemi efficienti di utenza (SEU); 
c) gli altri sistemi esistenti (ASE); 
d) i sistemi esistenti equivalenti ai sistemi efficienti di utenza (SEESEU). 
A loro volta nell’ambito dei SAP è possibile distinguere: 
a) le cooperative storiche dotate di rete propria;
b) i consorzi storici dotati di rete propria; 
c) gli altri sistemi di autoproduzione (ASAP), 
dove: 
- la cooperativa storica dotata di rete propria è ogni società cooperativa di produzione e distribuzione dell’energia elettrica di cui all’articolo 4, numero 8, della legge 6 dicembre n. 1643/62, che ha nella propria disponibilità una rete per il trasporto e la fornitura dell’energia elettrica ai propri soci; 
- i consorzi storici dotati di rete propria sono i consorzi o le società consortili costituiti per la produzione di energia elettrica da fonti energetiche rinnovabili e per gli usi di fornitura autorizzati nei siti industriali anteriormente al 1 aprile 1999, che ha nella propria disponibilità una rete per il trasporto e la fornitura dell’energia elettrica ai propri soci. 
In particolare le cooperative storiche dotate di rete propria ed i consorzi storici dotati di rete propria sono ricompresi nell'ambito dei SAP esclusivamente in relazione all’attività di trasporto e fornitura di energia elettrica per i propri clienti soci diretti.
Escludendo dagli SSPC le cooperative storiche dotate di rete propria ed i consorzi storici dotati di rete propria, si ottengono gli altri sistemi semplici di produzione e consumo (ASSPC) che, pertanto, sono l’insieme delle seguenti sottocategorie di SSPC: 
a) gli altri sistemi di autoproduzione (ASAP); 
b) i sistemi efficienti di utenza (SEU); 
c) altri sistemi esistenti (ASE); 
d) i sistemi esistenti equivalenti ai sistemi efficienti di utenza (SEESEU) diversi dalle cooperative storiche e dai consorzi storici.
Più in dettaglio: 
a) l’altro sistema di autoproduzione (ASAP) è un sistema in cui una persona fisica o giuridica produce energia elettrica e, tramite collegamenti privati, la utilizza in misura non inferiore al 70% annuo per uso proprio ovvero per uso delle società controllate, della società controllante e delle società controllate dalla medesima controllante; 
b) il sistema efficiente di utenza (SEU) è un sistema in cui uno o più impianti di produzione di energia elettrica, con potenza complessivamente non superiore a 20 MWe e complessivamente installata sullo stesso sito, alimentati da fonti rinnovabili ovvero in assetto cogenerativo ad alto rendimento, gestiti dal medesimo produttore, eventualmente diverso dal cliente finale, sono direttamente connessi, per il tramite di un collegamento privato senza obbligo di connessione di terzi, all’unità di consumo di un solo cliente finale (persona fisica o giuridica) e sono realizzati all’interno di un’area, senza soluzione di continuità, al netto di strade, strade ferrate, corsi
d’acqua e laghi, di proprietà o nella piena disponibilità del medesimo cliente e da questi, in
parte, messa a disposizione del produttore o dei proprietari dei relativi impianti di produzione; 
c) gli altri sistemi esistenti (ASE) sono sistemi, non già rientranti nelle altre configurazioni
definite con il presente provvedimento nell’ambito degli SSPC, in cui una linea elettrica di
trasporto collega una o più unità di produzione gestite, in qualità di produttore, dalla medesima
persona giuridica o da persone giuridiche diverse purché tutte appartenenti al medesimo gruppo
societario, ad una unità di consumo gestita da una persona fisica in qualità di cliente finale o ad
una o più unità di consumo gestite, in qualità di cliente finale, dalla medesima persona giuridica
o da persone giuridiche diverse purché tutte appartenenti al medesimo gruppo societario. In
sostanza, gli ASE vengono definiti al fine di attribuire una qualifica a tutti i sistemi esistenti,
non classificabili tra le reti elettriche, che non possono rientrare nelle altre tipologie
espressamente previste dalle leggi vigenti. 
d) i sistemi esistenti equivalenti ai sistemi efficienti di utenza (SEESEU) sono realizzazioni che
soddisfano tutti i requisiti di cui ai punti i e ii e almeno uno dei requisiti di cui ai punti iii., iv. e
v.: 
i. sono realizzazioni per le quali l’iter autorizzativo, relativo alla realizzazione di tutti gli
elementi principali (unità di consumo e di produzione, relativi collegamenti privati e alla
rete pubblica) che la caratterizzano è stato avviato in data antecedente al 4 luglio 2008; 
ii. sono sistemi esistenti all’1 gennaio 2014, ovvero sono sistemi per cui, alla predetta data,
sono stati avviati i lavori di realizzazione ovvero sono state ottenute tutte le autorizzazioni
previste dalla normativa vigente; 
iii. sono sistemi che rispettano i requisiti previsti per i SEU; 
iv. sono sistemi che connettono, per il tramite di un collegamento privato senza obbligo di
connessione di terzi, esclusivamente unità di produzione e di consumo di energia elettrica
gestite dal medesimo soggetto giuridico che riveste, quindi, il ruolo di produttore e di unico
cliente finale all’interno di tale sistema. L’univocità del soggetto giuridico deve essere
verificata all’1 gennaio 2014 ovvero, qualora successiva, alla data di entrata in esercizio
del predetto sistema; 
v. sono SSPC già in esercizio alla data di entrata in vigore del presente provvedimento.
I SEESEU possono essere classificati in tre categorie:
d1) i SEESEU-A sono i sistemi che soddisfano i requisiti di cui ai punti i., ii. e iv. di cui alla
precedente lettera d); i SEESEU-A, intesi come i sistemi esistenti (nel senso specificato ai
punti i., ii.) caratterizzati dalla presenza di un unico soggetto giuridico che, al tempo stesso,
assume la qualifica di cliente finale e di produttore. Tali sistemi costituiscono l’insieme
minimo dei SEESEU previsto dal decreto legislativo 115/08 e non richiedono la potenza
massima di 20 MW nè la presenza esclusiva di impianti alimentati da fonti rinnovabili o
cogenerativi ad alto rendimento; 
d2) i SEESEU-B sono i sistemi che soddisfano i requisiti di cui ai punti i., ii. e iii. di cui alla
precedente lettera d); i SEESEU-B, intesi come i sistemi esistenti (nel senso specificato ai
punti i., ii.) che rispettano i requisiti previsti per i SEU (possono quindi presentare un solo
cliente finale e un solo produttore tra loro diversi, oltre che impianti alimentati da fonti
rinnovabili o cogenerativi ad alto rendimento aventi una potenza massima di 20 MW).
Rientrano tra i SEESEU-B, a decorrere dall’1 gennaio 2016 e secondo le modalità di seguito
riportate, anche i sistemi inizialmente classificati tra i SEESEU-C; 
d3) i SEESEU-C sono i sistemi che soddisfano i requisiti di cui ai punti i., ii. e v. di cui alla
precedente lettera d); i SEESEU-C, intesi come i sistemi esistenti (nel senso specificato ai
punti i., ii.) e già in esercizio all’1 gennaio 2014. 
La qualifica di SEESEU-C, che consente di usufruire del trattamento previsto per i SEU, è una
qualifica transitoria, consentita fino al 31 dicembre 2015 (cioè fino al termine dell’attuale periodo
regolatorio) al fine di salvaguardare investimenti effettuati prima dell’entrata in vigore del decreto
legislativo 115/08 nell’ipotesi che le tariffe di trasmissione e di distribuzione, nonché gli oneri
generali di sistema trovassero applicazione alla sola energia elettrica prelevata dalla rete pubblica anziché all’energia elettrica consumata. I SEESEU-C possano essere successivamente annoverati tra i SEESEU-B, continuando quindi ad usufruire dei benefici previsti per i SEU anche dopo il 31 dicembre 2015, qualora siano rispettati tutti i seguenti vincoli: 
- alla data dell’1 gennaio 2014 i soggetti giuridici, eventualmente diversi, che gestiscono le unità di consumo di energia elettrica devono appartenere ad un unico gruppo societario, indipendentemente dalla presenza di uno o più soggetti giuridici che gestiscono gli impianti di produzione; 
- entro il 31 luglio 2015 tutti gli impianti di produzione presenti all’interno della predetta configurazione devono essere gestiti da un unico produttore e tutte le unità di consumo presenti all’interno della predetta configurazione devono essere gestite da un unico cliente finale, non necessariamente coincidente con il predetto produttore; 
- entro il 31 luglio 2015 i predetti impianti di produzione devono essere alimentati da fonti rinnovabili o cogenerativi ad alto rendimento sulla base della valutazione preliminare di impianto di cogenerazione ad alto rendimento. 
Rientrano tra i SEESEU-C anche i consorzi storici dotati di rete propria, esclusivamente in relazione all’attività di trasporto e fornitura di energia elettrica per i propri clienti soci diretti. 
Poiché ogni sistema potrebbe rientrare in più di una tipologia tra quelle sopra elencate, è necessario definire una scala di priorità per l’attribuzione della qualifica spettante ad un sistema semplice di produzione e consumo; tale priorità viene definita in modo da assegnare a ciascun sistema semplice di produzione e consumo la qualifica che, tra quelle spettanti, comporta il massimo beneficio possibile. 
Pertanto, un sistema elettrico che possiede tutti i requisiti per poter essere classificato in almeno due delle categorie, viene classificato come: 
i) SEESEU-A, qualora il predetto sistema rispetta i requisiti di cui alla lettera d1); 
ii) SEESEU-B, qualora il predetto sistema non rispetta i requisiti per essere classificato come SEESEU-A, ma rispetta i requisiti di cui alla lettera d2); 
iii) SEU, qualora il predetto sistema non rispetta i requisiti per essere classificato né come SEESEU-A, né come SEESEU-B, ma rispetta i requisiti di cui alla lettera b); 
iv) SEESEU-C, qualora il predetto sistema non rispetta i requisiti per essere classificato né come SEESEU-A, né come SEESEU-B, né come SEU, ma rispetta i requisiti di cui alla lettera d3); 
v) ASAP, qualora il predetto sistema non rispetta i requisiti per essere classificato né come SEESEU-A, né come SEESEU-B, né come SEU, né come SEESEU-C, ma rispetta i requisiti di cui alla lettera a); 
vi) ASE, qualora il predetto sistema rispetta esclusivamente i requisiti di cui alla lettera c). 
Nuove configurazioni impiantistiche caratterizzate dalla presenza di una o più unità di consumo e una o più unità di produzione, che non rientrano nella categoria delle reti elettriche, né in alcuno dei sottoinsiemi che compongono 
     SISTRI. 
 Il SISTRI (Sistema di Controllo della Tracciabilità dei Rifiuti) è il sistema informativo voluto dal Ministero dell'Ambiente italiano per monitorare i rifiuti pericolosi tramite la tracciabilità degli stessi. Si tratta, in pratica, di trasferire in formato digitale i previgenti adempimenti documentali precedentemente svolti in forma cartacea e basati sul Modello unico di dichiarazione ambientale (MUD), sul Registro di carico e scarico dei rifiuti e sul Formulario di identificazione dei rifiuti (FIR). Il sistema si basa sull'utilizzo di due apparecchiature elettroniche: una cosiddetta "black box" (cioè un trasponder), da montare sui mezzi adibiti al trasporto dei rifiuti per tracciarne i movimenti, e una token usb da 4 Gb equipaggiata con un software per autenticazione fonte e firma elettronica che viaggia assieme ai rifiuti, su cui sono salvati tutti i dati ad essi relativi. Sono obbligati ad aderire: tutti i produttori iniziali di rifiuti pericolosi; tutti i produttori iniziali di rifiuti non pericolosi derivanti da lavorazioni industriali, da lavorazioni artigianali, da trattamenti effettuati sulle acque, da trattamento di rifiuti e costituiti da fanghi da abbattimento delle emissioni in atmosfera con più di 10 dipendenti; tutti i trasportatori di rifiuti speciali prodotti da terzi; i trasportatori di propri rifiuti speciali pericolosi; i gestori di impianti di recupero e smaltimento, gli intermediari e i commercianti di rifiuti senza detenzione degli stessi; i comuni e gli enti e le imprese che gestiscono i rifiuti urbani nel territorio della regione Campania. Il numero delle imprese coinvolte all'inizio del programma è stato stimato in 400 mila, e a fine del 2010 si contavano 300 mila aziende e 60 mila trasportatori iscritti. 
   Sito 
  Insieme dei punti di misura che insistono su un'area, nella disponibilità di un   unico soggetto (persona fisica o giuridica), senza soluzione di continuità, ad   eccezione delle aree separate unicamente da strada, strada ferrata o corsi   d'acqua, o comunque collegate da una linea elettrica nella esclusiva   disponibilità del soggetto medesimo.
    Smart city. 
  Le città consumano il 70% dell’energia dell'UE. Su questo enorme potenziale di risparmio energetico le istituzioni europee fanno leva per ridurre del 20% le emissioni entro il 2020 e al contempo sviluppare un'economia low carbon entro il 2050. La formula individuata associa l’utilizzo più razionale delle risorse all’integrazione delle tecnologie pulite. L’Europa incoraggia quindi le comunità 'intelligenti' che vadano verso soluzioni “integrate e sostenibili in grado di offrire energia pulita e sicura a prezzi accessibili ai cittadini, ridurre i consumi e creare nuovi mercati in Europa e altrove”. In particolare, la sfida è rivolta alle realtà urbane di medie dimensioni, che uno studio condotto nel 2007 dal Politecnico di Vienna, l’Università di Lubiana e il Politecnico di Delft, stima in circa 600 (ospitando quasi il 40 % di tutta la popolazione europea urbana).  A dispetto dell’enorme potenziale, queste città sono spesso oscurate delle grandi metropoli. Individuate tra le comunità con un numero di abitanti tra 100.000 e 500.000, un bacino d’utenza inferiore a 1,5 milioni di persone e almeno un’università, troverebbero proprio nella ridotta estensione territoriale il loro punto di forza. È la flessibilità che ne deriva, secondo gli studiosi, a renderle 'smart', in altre parole brave, intelligenti, dinamiche. Il termine 'smart' l’UE lo riferisce, in particolare, a quelle città capaci di incidere positivamente sulla qualità urbana secondo una valutazione basata sui parametri economico, sociale, culturale, ambientale, abitativo e gestionale. Per approfondire leggi articolo. 
     Smart grid 
 
   In linea di principio, la smart grid (conosciuta anche come "rete intelligente" o della "generazione diffusa") è una evoluzione delle reti di energia elettrica che dal XX secolo generalmente distribuiscono energia elettrica da pochi generatori o centrali a un grande numero di utenti. L'innovazione consente di far viaggiare l’energia elettrica da più nodi rendendo la rete in grado di rispondere tempestivamente alla richiesta di maggiore o minore consumo di uno o più utenti e rendendo immediata e ottimale la gestione come un vero e proprio organismo intelligente. Perseguire questo risultato è complesso ma si sta raggiungendo per gradi. Ad esempio, al momento è possibile distinguere le ore di maggiore richiesta dalle ore di minore consumo facendo pagare un costo superiore a chi utilizza l'energia nelle ore di punta attraverso il meccanismo delle fasce orarie e dando contemporaneamente un incentivo maggiore a chi produce nelle medesime ore. Queste reti sono regolate da opportuni software di gestione che realizzano un controllo ad Informazione. Una smart grid possiede inoltre strumenti di monitoraggio intelligenti per tenere traccia di tutto il flusso elettrico del sistema, come pure strumenti per integrare energia rinnovabile nella rete. Quando il costo dell'energia diventa minore una smart grid può decidere di attivare processi industriali oppure elettrodomestici casalinghi. Molti governi al mondo stanno spingendo verso la costruzione di sistemi di distribuzione e gestione intelligenti dell'energia elettrica, indirizzati all'indipendenza energetica e alla lotta al riscaldamento globale. I contatori intelligenti fanno parte di queste iniziative. 
   Soggetto responsabile 
  Il DM 19 febbraio 2007 definisce il  soggetto responsabile dell’esercizio dell’impianto come colui che ha diritto, nel rispetto delle  disposizioni del DM, a richiedere e ottenere le tariffe incentivanti.
   Soglia  di idoneità  
  Parametro che individua l'idoneità di un soggetto sulla base del quantitativo   annuo di consumi elettrici. Il livello minimo di tali consumi è fissato dal Decreto Bersani. 
   Sole 
  Dal punto di vista energetico, con l’espressione “energia solare” si intende   l’energia raggiante sprigionata dal Sole per effetto delle reazioni   termonucleari che avvengono nel suo interno, e trasmessa alla Terra sotto forma   di radiazione elettromagnetica. La potenza massima della radiazione   solare nelle ore centrali della giornata, alle latitudini dei Paesi europei   mediterranei, è di oltre 1 kW/m2; in tali zone l' energia incidente   sull'unità di superficie orizzontale (m2) può raggiungere in un giorno, nelle   migliori condizioni estive, circa 25 Mega Joule (come termine di riferimento,   l'energia chimica contenuta in 1 kg di gasolio è pari a circa 42   MJ). 
   L’energia solare è la fonte di energia più diffusa, disponibile   ovunque e in quantità che sono, almeno in teoria, largamente superiori ai   fabbisogni energetici. La sua utilizzazione, tuttavia, pone problemi tecnici   ed economici complessi, legati alla bassa densità energetica della radiazione   solare, alla sua discontinuità (dovuta all’alternanza tra ore diurne e   notturne, ma anche al ciclo delle stagioni), alla sua aleatorietà (determinata dalle mutevoli condizioni meteorologiche) e, infine, al valore   modesto dei rendimenti di conversione. L’insieme di questi fattori determina   un divario notevole tra le capacità potenziali di sfruttamento dell’energia   solare e le possibilità pratiche di impiego. 
   L’energia solare può essere   utilizzata, tramite l’uso di collettori o pannelli solari, per la produzione di   acqua calda a bassa temperatura (inferiore a 100 °C) utilizzata per usi   igienico-sanitari. Questa forma di utilizzo si sta diffondendo in alcuni Paesi   europei, mentre in altri, tra cui l’Italia (che pure dispone di buone condizioni   climatiche) stenta a decollare. L’energia solare può tuttavia essere   utilizzata anche per la produzione di energia elettrica, sia tramite sistemi che   alimentano cicli di conversione termodinamica, sia attraverso la conversione   fotovoltaica. Quest’ultima è basata sulla capacità di alcuni   materiali semiconduttori opportunamente trattati, come il silicio, di generare   direttamente energia elettrica quando vengono esposti alla radiazione solare. La   conversione fotovoltaica, che vanta oramai numerose applicazioni in tutto il   mondo, si sta rivelando, sul piano industriale, una tecnologia promettente per   le sue caratteristiche di modularità, affidabilità e per le ridotte esigenze di   manutenzione. Su di essa, pertanto, si stanno concentrando gli investimenti e si   stanno determinando i principali progressi nel campo dello sfruttamento   dell’energia solare. Impianti fotovoltaici sono stati realizzati anche in   Italia, ma il peso di questa fonte   nell’ambito della produzione elettrica da fonti rinnovabili  si presenta ancora oggi   marginale. Enel è presente in questo settore, che rappresenta in ogni   caso un’opzione energetica di grande interesse per il futuro, con due importanti   realizzazioni: l’impianto fotovoltaico di Serre Persano in provincia di Salerno,   uno dei più grandi impianti al mondo in esercizio (3 MW), e l’impianto solare   termico da 20 MW presso la centrale Archimede di Priolo (Siracusa), progettato   insieme all’ENEA. Quest’ultimo impianto, in fase di completamento, si basa su   un’idea innovativa di sfruttamento dell’energia solare, consistente in un   processo di integrazione industriale tra un impianto solare termodinamico e una   centrale convenzionale con ciclo combinato a gas.
   Sostenibilità 
 In anni recenti questo termine è stato applicato agli organismi viventi e ai loro ecosistemi. Con riferimento alla società tale termine indica un "equilibrio fra il soddisfacimento delle esigenze presenti senza compromettere la possibilità delle future generazioni di sopperire alle proprie" (Rapporto Brundtland del 1987). Il termine, nel suo impiego in ambito ambientale, si riferisce alla potenziale longevità di un sistema di supporto per la vita umana, come il sistema climatico del pianeta, il sistema agricolo, industriale, forestale, della pesca, e delle comunità umane che in genere dipendono da questi diversi sistemi. In particolare tale longevità è messa in relazione con l'influenza che l'attività antropica esercita sui sistemi stessi. Il termine trae la sua origine dall'ecologia, dove indica la capacità di un ecosistema di mantenere processi ecologici, fini, biodiversità e produttività nel futuro. Perché un processo sia sostenibile esso deve utilizzare le risorse naturali ad un ritmo tale che esse possano essere rigenerate naturalmente. Sono emerse oramai chiare evidenze scientifiche che indicano che l'umanità sta vivendo in una maniera non sostenibile, consumando le limitate risorse naturali della Terra più rapidamente di quanto essa sia in grado di rigenerare. Di conseguenza uno sforzo sociale collettivo per adattare il consumo umano di tali risorse entro un livello di sviluppo sostenibile, è una questione di capitale importanza per il presente ed il futuro dell'umanità.
    Sottocampo 
  Collegamento elettrico in parallelo di più  stringhe. L’insieme dei sottocampi costituisce il campo fotovoltaico.
   Stringa 
  Insieme di moduli o pannelli collegati  elettricamente in serie per ottenere la tensione di lavoro del campo fotovoltaico.
   Superi 
  Penali relative ad eventuali prelievi e/o immissioni di potenza effettuati in   eccesso rispetto all'impegno di potenza, fissati nell'opzione tariffaria di   trasporto definita dal Gestore della Rete.
    Syngas 
  La parola Syngas nasce dall'unione delle due parole Synthetis Gas e indica non un gas vero e proprio, bensì una   miscela di gas, essenzialmente monossido di carbonio CO e idrogeno H2, con la presenza in   quantità variabile anche di metano CH4 e anidride carbonica CO2,   che può essere ottenuta in vari modi. Uno di questi la gassificazione del carbone (molto usata fino alla metà degli anni cinquanta quando ha cominciato   ad affermarsi il metano) consisteva nel   riscaldamento del comune coke per ottenerne appunto syngas che veniva utilizzato   come gas per illuminazione nelle città. Si ha formazione di Syngas anche nella   produzione di idrogeno da   idrocarburi solidi e liquidi e come risultato dei processi di fermentazione   anaerobica nelle discariche. Tale gas può essere utilizzato come combustibile, per generare energia elettrica attraverso l'uso di una comune turbina a gas, motore a ciclo   diesel, o in modo diretto tramite le pile a combustibile (Fuel-cells) di tipo DMFC.
  
    Telecomunicazioni e relative frequenze. 
Vedi articolo.
    Teleriscaldamento 
  Il teleriscaldamento è una forma di riscaldamento (di abitazioni,   scuole, ospedali ecc.) che consiste essenzialmente nella distribuzione,   attraverso una rete di tubazioni isolate e interrate, di acqua calda, acqua surriscaldata o vapore (detti fluido   termovettore), proveniente da una grossa centrale di produzione alle   abitazioni e ritorno alla stessa centrale. La distribuzione effettuata con acqua   calda, circa 80 - 90 °C, riduce tutta una serie di problematiche relative alla   posa delle tubazioni e alle dilatazioni termiche delle stesse, ma le tubazioni   saranno di diametro maggiore rispetto a quelle necessarie in caso di utilizzo di   acqua surriscaldata o del vapore. Le centrali di produzione possono sfruttare   diversi combustibili per   produrre il calore necessario: gas naturale, oli combustibili, carbone, biomassa o anche rifiuti. La produzione di calore può essere anche   associata a quella di energia elettrica: si parla in questo caso di cogenerazione. A destinazione il fluido termovettore riscalda, attraverso uno scambiatore di   calore acqua-acqua o vapore-acqua (generalmente a piastre), l'acqua   dell'impianto di riscaldamento della abitazione. Lo scambiatore, che in pratica   sostituisce la caldaia o le caldaie,   può produrre anche acqua di uso sanitario.In Italia lo scambiatore è soggetto, come le caldaie, alle normative e   controlli ISPESL ed alla direttiva europea PED sugli apparecchi a pressione.   Ogni impianto deve inoltre anche essere certificato secondo la legge 46/90. La tecnologia del teleriscaldamento è molto diffusa nel Nord Europa, ma da   alcuni anni si sta diffondendo anche in Italia. La prima città italiana a   dotarsi di un sistema di teleriscaldamento, all'inizio degli anni '70, è stata Brescia, seguita negli anni '80 da Torino che oggi possiede la rete di   teleriscaldamento più estesa d'Italia; buone reti di TLR esistono anche a Reggio   Emilia, Verona, Milano, Forlì, Mantova, Imola, Bologna, Ferrara, Lodi, Bardonecchia, Legnano, Cavalese, Brunico ecc. La tecnologia è adoperata spesso per   riscaldare molti edifici pubblici, ad esempio certe case   popolari dell'Aler a Milano e altrove.
 Efficienza.In quanto impianto centralizzato di enormi dimensioni, la centrale di   teleriscaldamento è molto più efficiente di qualunque caldaia condominiale: non solo per le tecnologie più   avanzate di cui fa uso, ma anche perché, mentre una caldaia piccola (specie se   collegata a un solo appartamento) si spegne e riaccende in continuazione man   mano che la casa si riscalda e poi raffredda, in una caldaia più grande tutte   queste oscillazioni della domanda si compensano a vicenda permettendole di   funzionare continuamente alla stessa potenza, il che aumenta di molto   l'efficienza. Inoltre, un grande impianto anche dal punto di vista delle   emissioni inquinanti è controllato molto di più di qualsiasi caldaia privata (si   ricorda che nel milanese si stima che nel periodo invernale gli impianti di   riscaldamento siano l'origine della metà delle polveri sottili emesse, perciò il   comune di Milano dal 1º novembre 2005 vieta l'accensione di impianti di   riscaldamento alimentati a carbone o olio combustibile). Perciò il   teleriscaldamento, sostituendosi a molte caldaie inefficienti e inquinanti, può   costituire un miglioramento energetico-ambientale superiore a quello – già   notevole – calcolabile misurando semplicemente le "calorie estratte". La distanza dei luoghi scaldati rispetto alla centrale, oltre un certo limite   di alcuni chilometri, comporta delle eccessive dispersioni di calore durante il   tragitto, che non rendono più conveniente il teleriscaldamento dal punto di   vista economico e termodinamico. All'aumentare della distanza si anche possono   rendere necessarie delle stazioni intermedie che aumentino la pressione e la   temperatura dell'acqua.
Condizionamento. Un lato che è in via di sviluppo è lo sfruttamento del calore per il condizionamento. Questa   tecnologia, attualmente poco diffusa, era alla base del primo frigorifero del   '700, alimentato a carbone, che sfruttava il calore della combustione per   azionare un circuito in cui una sostanza era in grado di trasferire il calore da   un ambiente all'altro. In numeri, fornendo 1 kWh di calore (di almeno 70/80°C),   è possibile asportare da un ambiente 0,7 kWh termici e creare 1,7 kWh sotto   forma di calore a bassissima temperatura (sotto i 55°C), utile quindi per il   riscaldamento e per la creazione di acqua calda per usi sanitari. I condizionatori elettrici consumano elettricità per produrre il calore   necessario; in questo modo si ha una degradazione di un'energia pregiata per   ottenere la quale si è precedentemente degradata altra energia, generalmente in   centrali termoelettriche il cui rendimento si aggira generalmente sul 40% e che   disperdono nell'ambiente il resto dell'energia sotto forma di calore: si ha   dunque un doppio spreco, perché da un lato non si sfrutta del calore prezioso, e   dall'altro si spreca l'elettricità prodotta. Pertanto, utilizzare direttamente una fonte di calore per produrre freddo   costituisce un aumento dell'efficienza e un risparmio energetico, specie se il   calore proviene da un impianto di teleriscaldamento che ceda il calore di scarto   di altri processi, come accade nella cogenerazione e nell'incenerimento. In figura sono mostrate tubazioni per teleriscaldamento. 

   Temperatura critica   
In fisica si parla di temperatura   critica in differenti ambiti, nel caso della transizione dei fluidi si definisce critica la temperatura al di sopra della quale una sostanza   non può esistere allo stato liquido. Nel caso della transizione superconduttiva si definisce critica la temperatura al di sotto della quale il materiale diviene   superconduttore. Più in generale si può chiamare temperatura critica quella temperatura alla   quale avviene una transizione di fase.
Il caso dei fluidi. Come già detto, nel caso dei fluidi, si definisce temperatura critica la   temperatura al di sopra della quale una sostanza non può esistere allo stato liquido, neanche essendo sottoposta a   compressione.
  Definita per la sostanza allo stato gassoso l'equazione di stato di Van der   Waals (vedi voce) 
  
  e   tracciate sul diagramma di Clapeyron (p − V) le curve corrispondenti alle   temperature costanti, si ottiene che esse sono decrescenti per valori superiori   ad una data Tc, mentre al di   sotto di questa non sono monotone. Evidentemente quelle inferiori non possono   descrivere bene il comportamento del gas, ammettendo compressioni isoterme con   diminuzione della pressione. Per cui nell'area sottostante la curva Tc la sostanza si presenta anche   in forme non gassose (ovvero in forma liquida, o in una coesistenza delle due fasi), e il   grafico sperimentale non corrisponde a quello di Van Der Waals.
  Dalla Tc in su invece la sostanza esiste   solo sotto forma di gas, e pertanto la temperatura detta è quella critica. Si   ricava che
  
  Tensione elettrica  
  La tensione elettrica in un campo elettrico  generico quantifica il lavoro necessario per spostare una carica (unitaria) tra   i due punti estremi di una curva σ, equivale quindi   all'integrale di linea
 generico quantifica il lavoro necessario per spostare una carica (unitaria) tra   i due punti estremi di una curva σ, equivale quindi   all'integrale di linea
    
dove " "   rappresenta il prodotto scalare tra quantità   vettoriali. Quindi mentre la corrente elettrica misura il flusso della carica, la tensione misura l'energia   richiesta per far fluire questa carica. Se il campo è conservativo, ammette potenziale e l'integrale di linea dipende solo dagli   estremi di integrazione. In questo caso la tensione equivale alla differenza di potenziale, l'integrale   è nullo su qualsiasi linea chiusa e vale, quindi, la legge di Kirchhoff   delle tensioni. La definizione operativa di tensione utilizzata in elettrotecnica, elettronica e nella teoria dei circuiti, essendo basata sulla   ipotesi di operare su circuiti a parametri concentrati è quella   conservativa, ed è quindi sinonimo di differenza di potenziale.
"   rappresenta il prodotto scalare tra quantità   vettoriali. Quindi mentre la corrente elettrica misura il flusso della carica, la tensione misura l'energia   richiesta per far fluire questa carica. Se il campo è conservativo, ammette potenziale e l'integrale di linea dipende solo dagli   estremi di integrazione. In questo caso la tensione equivale alla differenza di potenziale, l'integrale   è nullo su qualsiasi linea chiusa e vale, quindi, la legge di Kirchhoff   delle tensioni. La definizione operativa di tensione utilizzata in elettrotecnica, elettronica e nella teoria dei circuiti, essendo basata sulla   ipotesi di operare su circuiti a parametri concentrati è quella   conservativa, ed è quindi sinonimo di differenza di potenziale. 
  Tensione (bis) 
  
  - 
    Altissima: tensione superiore a 150 kV 
- 
    Alta :tensione compresa fra 35 e 150 kV 
- 
    Media: tensione compresa fra 1 e 35 kV 
- 
    Bassa: tensione inferiore a 1 kV 
     Tensione alternata 
  Tensione tra due punti di un circuito che  varia nel tempo con andamento di tipo sinusoidale. È la forma di tensione tipica dei sistemi di  distribuzione elettrica, come pure delle utenze domestiche e industriali.
    Tensione continua 
  Tensione tra due punti di un circuito che  non varia di segno e di valore al variare del tempo. È la forma di tensione tipica di alcuni sistemi  isolati (ferrovie, navi) e degli apparecchi alimentati da batterie.
   Termovalorizzatori 
  I termovalorizzatori 
 sono impianti principalmente utilizzati per lo   smaltimento dei rifiuti mediante un   processo di combustione ad   alta temperatura (incenerimento) che dà come prodotti finali un effluente gassoso, ceneri   e polveri. Negli impianti più moderni, il calore sviluppato durante la combustione dei rifiuti viene recuperato e utilizzato per   produrre vapore, poi utilizzato per la   produzione di energia   elettrica o come vettore di calore (ad esempio per il teleriscaldamento).   Questi impianti con tecnologie per il recupero vengono indicati col nome di inceneritori con recupero energetico, o più comunemente termovalorizzatori. Il termine termovalorizzatore, seppur di uso comune, è talvolta   criticato in quanto sarebbe fuorviante. Infatti, secondo le più moderne teorie   sulla corretta gestione dei rifiuti gli unici modi per   "valorizzare" un rifiuto sono prima di tutto il riuso e poi il riciclo, mentre l'incenerimento (anche   se con recupero energetico) costituisce semplice smaltimento ed è dunque da   preferirsi alla sola discarica indifferenziata. Si fa notare   che il termine non viene inoltre mai utilizzato nelle normative europea e   italiana di riferimento, nelle quali si parla solo di "inceneritori". Le categorie principali e quantitativamente predominanti di rifiuti   avviati ai termovalorizzatori sono:
  - Rifiuti Solidi   Urbani (RSU); 
- Rifiuti speciali. 
A queste si possono aggiungere categorie particolari come i fanghi di depurazione, i rifiuti   medici o dell'industria chimica. Vi è poi una grande quantità di rifiuti non inceneribili (classificati   "inerti") provenienti da costruzioni e demolizioni: questi costituiscono una   percentuale di circa il 25% del totale, pari a ~30 milioni di tonnellate l'anno   (dati 2001). Prima di procedere all'incenerimento i rifiuti possono essere trattati   tramite processi volti a eliminare i materiali non combustibili (vetro, metalli, inerti) e la frazione umida (la materia   organica come gli scarti alimentari, agricoli, ecc...). I rifiuti trattati in questo modo sono definiti CDR (ovvero combustibile   derivato dai rifiuti) o più comunemente ecoballe.Vedi figura. 

  Tecnologie di incenerimento. Gli inceneritori più diffusi in Europa sono del tipo "a griglie". Trattandosi   sostanzialmente di impianti che sfruttano il calore sviluppato dalla   combustione, non è importante solo il tonnellaggio di combustibile (i rifiuti),   ma anche il suo potere calorifico, ovvero il calore   sviluppato durante la combustione (in genere pari a circa 9000-13000 MJ/t). In altre parole, un inceneritore   progettato (ed autorizzato) per bruciare 100.000 t di rifiuti con potere   calorifico di 13.000 MJ/t, può arrivare a bruciare anche il 45% in più se i   rifiuti hanno potere calorifico di 9000 MJ/t. Il funzionamento di un "termovalorizzatore" a griglie può essere suddiviso in   sei fasi fondamentali:
  - Arrivo dei rifiuti — Provenienti dagli impianti di selezione   dislocati sul territorio (ma   anche direttamente dalla raccolta del rifiuto), i rifiuti sono conservati in   un'area dell'impianto dotato di sistema di aspirazione, per evitare il   disperdersi di cattivi odori. Con un carroponte i materiali sono depositati nel forno attraverso una tramoggia. La tecnologia di produzione della frazione   combustibile (CDR) ed il suo incenerimento   sfrutta la preventiva disidratazione biologica dei rifiuti seguita dalla   separazione degli inerti (metalli, minerali, ecc.) dalla frazione   combustibile, che può essere "termovalorizzata" producendo energia elettrica con   resa nettamente migliore rispetto all'incenerimento classico e con una   diminuzione di impatto ambientale.
- Combustione — Il forno è solitamente dotato di una o più griglie   mobili (forno "a griglie") per permettere il continuo movimento dei rifiuti   durante la combustione. Una corrente d'aria forzata viene inserita nel forno per   apportare la necessaria quantità di ossigeno che permetta la migliore combustione,   mantenendo alta la temperatura (fino a 1000 °C e più). Per mantenere tali temperature,   qualora il potere calorifico del combustibile sia troppo basso, talvolta viene   immesso del gas metano in una quantità   variabile fra i 4 e 19 m³ per tonnellata di rifiuti. Accanto a una camera di combustione primaria viene associata una camera di combustione   secondaria (camera di post-combustione), con lo scopo di completare la   combustione dei fumi nel  rispetto della normativa vigente. 
- Produzione del vapore surriscaldato — La forte   emissione di calore prodotta dalla combustione di metano e rifiuti porta a   vaporizzare l'acqua in circolazione nella caldaia posta a valle, per la produzione   di vapore surriscaldato ad alto contenuto entalpico. 
- Produzione di energia elettrica — Il vapore generato   mette in movimento una turbina che, accoppiata a un motoriduttore e a   un alternatore, trasforma   l'energia termica in energia elettrica producendo corrente alternata per espansione del vapore   surriscaldato. 
- Estrazione delle ceneri — Le   componenti dei rifiuti non combustibili vengono raccolte in una vasca piena   d'acqua posta a valle dell'ultima griglia. Le scorie, raffreddate in questo   modo, sono quindi estratte e smaltite in discariche speciali. Ovviamente,   separando preventivamente gli inerti dalla frazione combustibile si ottiene una   riduzione delle scorie. L'acqua di raffreddamento (circa 2.5 m3/t)   deve essere depurata prima di essere scaricata in ambiente. Le ceneri sono   classificate come rifiuti speciali non pericolosi, mentre le polveri fini (circa   il 4% del peso del rifiuto in ingresso) intercettate dai sistemi di filtrazione   sono classificate come rifiuti speciali pericolosi. Entrambe sono smaltite in   discariche per rifiuti speciali; ci sono recenti esperienze di riuso delle   ceneri pesanti. 
- Trattamento dei fumi — Dopo la   combustione i fumi caldi (circa il 140-150% in peso del rifiuto in ingresso)   passano in un sistema multi-stadio di filtraggio, per l'abbattimento del   contenuto di agenti inquinanti sia chimici che solidi. Dopo il trattamento e il   raffreddamento i fumi vengono rilasciati in atmosfera a circa 140° C.
Termovalorizzatore a griglie. Questi impianti possiedono un grosso focolare, con griglie metalliche   normalmente a gradini formate da barre o rulli paralleli. La griglia può essere   mobile o fissa e in diverse zone vengono raggiunte differenti temperature che   permettono un più graduale riscaldamento. È presente anche un sistema di   raffreddamento. Oltre alla normale combustione primaria, viene effettuata anche   una combustione secondaria, ottenuta con un'ulteriore insufflazione d'aria che   genera una notevole turbolenza, permettendo di migliorare il   miscelamento aria-combustibile. Le ceneri prodotte vengono raccolte e   raffreddate in vasche piene d'acqua. Gli inceneritori più vecchi e impiantisticamente più semplici consistevano in   una camera di mattoni con una griglia   posta rispettivamente sopra e sotto la raccolta delle ceneri. Mentre quella   posta superiormente, e avente una apertura in cima o lateralmente, veniva   utilizzata per caricare il materiale da bruciare, quella inferiore permetteva la   rimozione del residuo solido incombusto tramite l'apertura laterale. In confronto con le altre tipologie, gli impianti con griglie   mobili sono quelli maggiormente sfruttati per i rifiuti urbani e permettono,   grazie al movimento dei rifiuti all'interno della camera di combustione, una   ottimizzazione della combustione stessa. Una singola griglia è in grado di   trattare più di 35 t/h di rifiuti e può lavorare 8.000 ore l'anno con una sola   sospensione dell'attività, per la durata di un mese, legata alla manutenzione e   controlli programmati.Una parte dell'aria necessaria alla   combustione primaria viene fornita dal basso della griglia e questo flusso viene   anche sfruttato per raffreddare la griglia stessa. Il raffreddamento è   importante per il mantenimento delle caratteristiche meccaniche della griglia, e   molte griglie mobili sfruttano anche il raffreddamento tramite un flusso interno   di acqua. L'aria necessaria alla combustione secondaria viene immessa ad alta   velocità superiormente alla griglia e ha lo scopo di portare a completamento la   reazione di combustione, realizzando una condizione di eccesso di ossigeno e una   turbolenza che assicura un mescolamento ottimale di combustibile e comburente. È da notare però che alle griglie è legato un certo insieme di problematiche   tecniche tra le quali spicca il deposito di polveri, con la necessità di un   certo livello di manutenzione periodica programmata. 

 Interno del forno di un inceneritore a griglie
Termovalorizzatore a letto fluido. La combustione a letto fluido è ottenuta inviando dal basso un forte getto di   aria attraverso un letto di sabbia. Il   letto quindi si solleva, mentre le particelle si mescolano e sono sotto continua   agitazione. A questo punto vengono introdotti i rifiuti e il combustibile. Il   sistema sabbia/rifiuto/combustibile viene mantenuto in sospensione sul flusso di   aria pompata e sotto violento mescolamento e agitazione, assumendo in tale modo   caratteristiche simil-fluide (da cui il letto fluido). Questo processo, detto fluidizzazione, ha   l'effetto di diminuire la densità del sistema in oggetto pur senza alterarne la natura originaria. Tutta la massa   di rifiuti, combustibile e sabbia circola completamente all'interno della   fornace. La tecnologia a letto fluido è di comune utilizzo nell'ambito dell'ingegneria   chimica, e viene utilizzata ad esempio anche in reattori per attuare la sintesi chimica e   nell'ambito della petrolchimica. Una camera di combustione a letto fluido permette di ridurre le emissioni di ossidi di zolfo (SOx) mescolando calcare o dolomite in polvere alla sabbia: in tal modo infatti   lo zolfo non viene ossidato formando gas, bensì precipita sotto forma di solfato. Tra l'altro, tale precipitato   caldo permette di migliorare lo scambio termico per la produzione di vapor   acqueo. Dato che il letto fluido consente anche di operare a temperature   inferiori (800°C), operando a tali temperature è possibile ridurre le emissioni   di ossidi di azoto (NOx). Uno studio comparativo ha confrontato le emissioni di polveri sottili,   caratterizzandone dimensione, composizione e concentrazione, e di elementi   traccia relativamente all'utilizzo di una camera a griglie e di una camera a   letto fluido (FBC) a monte dei sistemi di filtraggio. È emerso che le emissioni   di particelle con diametro inferiore a 1 µm (PM1) sono   approssimativamente quattro volte maggiori nel caso delle griglie, con valori di   1-1,4 g/Nm3 (grammi al normalmetrocubo) contro   i 0,25-0,31 g/Nm3 del letto fluido. È stata misurata anche la   quantità totale media di ceneri prodotte, che è risultata essere di 4,6   g/Nm3 nel caso del letto fluido e di 1,4 g/Nm3 nel caso   delle griglie. Il letto fluido ha il vantaggio di richiedere poca manutenzione e ovviamente,   data la particolare costituzione, non necessita di componenti in movimento.   Possiede anche un rendimento leggermente superiore rispetto ai forni a griglia,   ma richiede combustibile a granulometria piuttosto omogenea. Le tipologie di letto fluido più sfruttate rientrano principalmente in due   categorie: sistemi a pressione atmosferica (fluidized bed combustion,   FBC) e sistemi pressurizzati (pressurized fluidized bed combustion,   PFBC). Questi ultimi sono in grado di generare un flusso gassoso ad alta   pressione e temperatura in grado di alimentare una turbina a gas che può realizzare un ciclo   combinato ad alta efficienza. 
Termovalorizzatore a forno rotativo. Gli impianti a forno rotativo hanno utilizzo di elezione nell'ambito dello   smaltimento dei rifiuti industriali e speciali, ma possono anche essere   utilizzati per i RSU. Si hanno due camere di combustione: la camera di   combustione primaria consiste in un tubo cilindrico costruito in materiale   refrattario e inclinato di 5-15°, il cui movimento attorno il proprio asse di rotazione viene trasmesso ai rifiuti.   La rotazione fa accumulare all'estremità del cilindro le ceneri e il resto della   frazione non combusta solida, che viene infine raccolta all'esterno. I gas   passano invece in una seconda camera di combustione stavolta fissa. La camera di   combustione secondaria è necessaria per portare a completamento le reazioni di   ossidazione in fase gassosa. In relazione alla pericolosità del rifiuto trattato, le emissioni gassose   possono richiedere un più accurato sistema di pretrattamento prima   dell'immissione in atmosfera. Molte particelle tendono a essere trasportate   insieme con i gas caldi, per questo motivo viene utilizzato un "post-bruciatore"   dopo la camera di combustione secondaria per attuare una ulteriore   combustione.
Termovalorizzatore a multi step. Il nome di questa tecnologia è legato al passaggio su più focolari del   materiale da trattare. I rifiuti vengono trasportati attraverso la fornace   muovendo una dentatura meccanica che fa parte di braccia agitanti montate su un   asse centrale rotante che si estende a una certa altezza dal focolare. I rifiuti   in entrata vengono caricati da una estremità, mentre i residui della combustione   vengono asportati dall'altra estremità. Il carico/scarico dei rifiuti viene   ripetuto automaticamente secondo il numero di focolari presenti. Un modello   specifico è il forno di pirolisi a piani, studiato in origine per   l'incenerimento di fanghi di varia natura (inclusi i fanghi biologici   inattivati) ed occasionalmente usato nell'incenerimento di RSU che abbiano buone   caratteristiche di trasporto. Con questo metodo, oltre ai rifiuti industriali e solidi urbani, è possibile   trattare anche fanghi di varia origine.
Recupero energetico. Negli impianti più moderni, il calore sviluppato durante la combustione dei rifiuti viene recuperato e utilizzato per   produrre vapore, poi utilizzato per la   produzione di energia   elettrica o come vettore di calore (ad esempio per il teleriscaldamento).   Il rendimento di tali impianti è però molto minore di quello di una normale   centrale elettrica, poiché i rifiuti non sono un buon combustibile per via del   loro basso potere calorifico, e le   temperature raggiunte in camera di combustione sono inferiori rispetto alle   centrali tradizionali. Talvolta per aumentare l'efficienza della combustione   insieme ai rifiuti viene bruciato anche del gas metano. L'indice di sfruttamento del combustibile di inceneritori e   centrali elettriche può essere aumentato notevolmente abbinando alla generazione   di energia elettrica il teleriscaldamento, che permette il recupero   del calore prodotto che verrà poi utilizzato per fornire acqua calda. Tuttavia   non sempre il calore recuperato può essere effettivamente utilizzato per via   delle variazioni stagionali dei consumi energetici; ad esempio, in estate lo   sfruttamento del calore può calare notevolmente, a meno che non siano presenti   attrezzature che permettano di sfruttarlo per il raffreddamento. Oggi gran parte degli inceneritori sono dotati di qualche forma di recupero   energetico ma va rilevato che solo una piccola   minoranza di impianti è collegata a sistemi di teleriscaldamento e pertanto   viene recuperata solo l'elettricità. L'efficienza energetica di un termovalorizzatore è variabile tra il 19 e il   27% se si recupera solo l'energia elettrica ma aumenta molto col recupero del   calore (cogenerazione). Ad   esempio, nel caso dell'inceneritore di Brescia si ha un rendimento del 26% in   produzione elettrica e del 58% in calore per teleriscaldamento, con un indice di   sfruttamento del combustibile dell'84%. A titolo di confronto una moderna   centrale termoelettrica a ciclo   combinato, il cui scopo primario è ovviamente quello di produrre   elettricità, ha una resa del 57% per la produzione elettrica, e se abbinata al   teleriscaldamento raggiunge l'87%.] Tipicamente per ogni tonnellata di   rifiuti trattata possono essere prodotti circa 0,67 MWh di elettricità e 2 MWh   di calore per teleriscaldamento. Volendo invece confrontare il rendimento energetico delle varie tecnologie di   trattamento termico dei rifiuti, il discorso è molto più complesso, meno   documentato e fortemente influenzato dal tipo di impianto. In linea di massima   le differenze sono dovute al fatto che, mentre in un inceneritore i rifiuti   vengono direttamente bruciati ed il calore viene usato per produrre vapore,   negli impianti di gassificazione/pirolisi i rifiuti vengono invece convertiti   parzialmente in gas (syngas) che può   essere poi utilizzato in cicli termodinamici più efficienti, come ad esempio un   ciclo combinato sopra richiamato. La possibilità di utilizzare diversi cicli   termodinamici permette a tali impianti maggiore flessibilità nella regolazione   dei rapporti fra produzione di calore e di elettricità, rendendoli meno   sensibili alle variazioni stagionali dei consumi energetici (in altre parole   d'inverno si può produrre più calore e d'estate più elettricità). 
Le scorie. L'incenerimento dei rifiuti produce scorie solide pari circa al 10-12% in   volume e 15-20% in peso dei rifiuti introdotti, e in più ceneri per il 5%.Gran parte della massa immessa nei forni   viene infatti combusta ottenendo dei fumi che verranno opportunamente   pretrattati prima di essere emessi dal camino.
  - Le ceneri volanti e le polveri intercettate dall'impianto di depurazione dei   fumi sono rifiuti speciali altamente tossici (in quanto concentrano molti degli   inquinanti più nocivi), che come tali sono soggetti alle apposite disposizioni   di legge e sono poi conferiti in discariche speciali. 
- Le scorie pesanti, formate dal rifiuto incombusto – acciaio, alluminio,   vetro e altri materiali ferrosi, inerti o altro –, sono raccolte sotto le   griglie di combustione e possono poi essere divise a seconda delle dimensioni e   quindi riciclate se non troppo contaminate. 
Le scorie sono generalmente smaltite in discarica e costituiscono una grossa   voce di spesa. Tuttavia, possono rivelarsi produttive: un esempio di riciclaggio   di una parte delle scorie degli inceneritori è l'impianto BSB di Noceto, nato dalla collaborazione fra CIAl (Consorzio   Imballaggi Alluminio) e Bsb Prefabbricati; qui si trattano le scorie   provenienti dai termovalorizzatori gestiti dalle società Silea   S.p.A. (impianto di Lecco) e Hera (impianti di Rimini, Ferrara, Forlì, Ravenna) con 30.000 tonnellate di scorie l'anno da cui   si ricavano 25.000 tonnellate (83%) di materiale destinato alla produzione di   calcestruzzo, 1.500 tonnellate (5%) di metalli ferrosi e 300 tonnellate (1%) di   metalli non ferrosi di cui il 65% di alluminio. Infine, circa l'11% delle scorie   non può essere recuperato. Le scorie e le ceneri vengono caricate su un nastro trasportatore; i rottami   ferrosi più consistenti sono subito raccolti, quelli più piccoli vengono rimossi   poi con un nastro magnetico. Appositi macchinari separano dal resto i rimanenti   metalli a-magnetici (prevalentemente alluminio); tutto il resto, miscelato con   opportune dosi di acqua, inerti, cemento e additivi, e reso così inerte, va a   formare calcestruzzo subito adoperato per la produzione di elementi per   prefabbricati. A   titolo di confronto, si segnala che il solo inceneritore di Brescia produce   circa 240.000 tonnellate di scorie. Tuttavia, alcuni studi hanno dimostrato la tossicità dei calcestruzzi   contenenti scorie, anche se con tecniche opportune la si può   ridurre significativamente: sono ancora in corso degli studi. Non è noto il bilancio energetico   totale (e le relative emissioni) di queste procedure ed in che quota questo   eroda il recupero energetico della filiera di trattamento dei rifiuti mediante   incenerimento. Un'altra tecnologia che si sta sperimentando è la vetrificazione delle ceneri   con l'uso della torcia al plasma. Con questo sistema si rendono inerti le   ceneri, risolvendo il problema dello smaltimento delle stesse come rifiuti   speciali, inoltre si studia la possibilità di un loro riutilizzo come materia   prima per il comparto ceramico e cementizio.
   Terna SpA 
  E' la società responsabile in Italia della  trasmissione e del dispacciamento dell'energia elettrica sulla rete ad alta e altissima  tensione su tutto il territorio nazionale.
   Terra 
  L'energia geotermica è costituita dal calore contenuto all'interno della   Terra, che nelle zone più profonde può raggiungere i 4.000 °C. Esso trae origine   dal residuo calore primitivo del pianeta e dalle reazioni nucleari legate al   decadimento radioattivo di alcuni materiali terrestri (uranio, torio, potassio,   ecc.). Per gli usi industriali ed energetici con energia geotermica si fa   riferimento oggi al calore endogeno disponibile fino a profondità di 4-6 km,   benché le attuali tecnologie di perforazione consentano di raggiungere   profondità anche di 10 km. L'energia geotermica può essere considerata   inesauribile; si propaga per conduzione nelle rocce compatte e per   convezione in quelle permeabili e fratturate, affluendo in superficie con un   gradiente di temperatura medio di circa +3 °C ogni 100 metri. La Terra è   quindi un immenso serbatoio di calore: si calcola che l'energia termica   contenuta entro i primi 5 km sia equivalente a circa 500.000 volte gli attuali   fabbisogni mondiali. Si tratta però di energia fortemente dispersa e solo   raramente recuperabile in condizioni economicamente vantaggiose. Per contro ha   la caratteristica di essere relativamente costante nel tempo, priva di   fluttuazioni meteorologiche (diurne o stagionali) e, cosa che più   interessa dal punto di vista economico, può concentrarsi in zone caratterizzate   da anomalie termiche (vulcanesimo secondario), ove può raggiungere   livelli di temperatura industrialmente sfruttabili. In tali zone l’acqua di   falda viene riscaldata dal calore geotermico e resa disponibile (in modo   naturale oppure grazie a perforazioni artificiali) sotto forma di fluido più o   meno caldo (più raramente anche vapore surriscaldato) utilizzabile per scopi   termici (riscaldamento) o per la produzione di energia elettrica, a seconda   della temperatura e delle caratteristiche del fluido stesso. 
  L’Italia   è il Paese ove l’energia geotermica è stata per la prima volta sfruttata a fini   industriali ed è tuttora uno dei principali produttori di energia   geotermolettrica. Sono passati oltre 100 anni dal 4 luglio 1904, quando in   Toscana, a Larderello, si riuscì ad accendere cinque lampadine grazie alla   trasformazione in energia elettrica della forza del vapore prelevato dal   sottosuolo. Da allora la storia della geotermia è diventata un vanto   dell’industria energetica italiana. Le risorse impiegate hanno reso la Toscana la Regione italiana con il   più elevato ricorso a fonti rinnovabili. La geotermia copre, infatti, circa un   quarto dei consumi energetici regionali e le centrali geotermiche, con la loro   produzione, soddisfano il fabbisogno di energia elettrica di circa 2 milioni di   famiglie. Di anno in anno, inoltre, la geotermia sta consolidando la sua   posizione all’interno della produzione nazionale di energia elettrica da fonti   rinnovabili  e anche nei prossimi   anni è previsto un incremento della sua produzione. 
   Trasformatore 
  E' una macchina elettrica statica (perché non   contiene parti in movimento) appartenente alla categoria più ampia dei   convertitori. In particolare il trasformatore consente di convertire i parametri   di tensione (simbolo V unità di misura [V] volt)   e corrente (simboli I unità di misura [A] ampere) in ingresso rispetto a quelli in uscita, pur   mantenendo costante la quantità di potenza elettrica (a meno delle   perdite per effetto dell'isteresi e   delle correnti   parassite). Il trasformatore è una macchina in grado di operare solo in corrente   alternata, perché sfrutta i principi dell'elettromagnetismo legati ai flussi   variabili. Il trasformatore ha importanza fondamentale nel mondo di oggi:   senza di esso le grandi reti di trasporto dell'energia   elettrica che collegano le centrali elettriche a milioni di industrie e di   case non potrebbero funzionare
     Trasformazioni topologiche di fase 
  Vedi articolo.
   Trasmissione 
  Attività di trasporto e trasformazione dell’energia elettrica lungo le reti   interconnesse ad alta ed altissima tensione, dagli impianti di produzione   ovvero, nel caso di energia importata, dal punto di consegna della stessa, al   sistema di distribuzione.
    Trattamento acque reflue urbane 
  Vedi articolo. 
   Trigenerazione 
  La trigenerazione implica la produzione contemporanea di energia meccanica   (elettricità), calore e freddo utilizzando un solo combustibile. Le tradizionali centrali   termoelettriche convertono soltanto 1/3 dell’energia del combustibile in   elettricità,mentre il resto viene perso sotto forma di calore. Ne consegue l’esigenza di incrementare   l’efficienza della produzione elettrica. Un metodo che va in questa direzione è   la produzione combinata di calore ed elettricità (C.H.P.) dove più di 4/5   dell’energia del combustibile è convertita in energia utilizzabile,   con benefici sia finanziari che economici.
   Turbina a gas 
La turbina a gas, detta anche turbogas, è una macchina motrice che   trasforma in energia meccanica l’energia chimica contenuta nel combustibile. La turbina a gas semplice è costituita da un compressore calettato sullo stesso albero di una turbina e da una camera di combustione   situata tra questi due componenti. Il termine turbina a gas talvolta si   riferisce soltanto alla sezione turbina e non alla macchina completa. Il   principio di funzionamento è il seguente: l'aria viene compressa ed in seguito   inviata in camera di combustione nella quale l'ossidazione del combustibile   innalza l'entalpia della corrente   gassosa che prosegue il suo percorso espandendo in turbina. La turbina trascina   il compressore e l'energia netta risultante viene utilizzata nel campo delle   applicazioni industiali come energia meccanica per trascinare macchine o   trasformata in energia elettrica mediante un alternatore, mentre nel campo della   propulsione aeronautica per trascinare eliche (turboshaft, turboprop) o per   fornire la spinta (turbojet, turbofan). Da un punto di vista termodinamico, il funzionamento ideale delle turbine a   gas è descritto dal Ciclo Brayton, in cui l’aria è compressa isoentropicamente,   la combustione avviene a pressione costante e l’espansione in turbina avviene   isoentropicamente fino alla pressione di aspirazione. Nel ciclo reale attrito e   turbolenza provocano:
  - Compressione non isoentropica – dato un certo rapporto di compressione,   l'entalpia allo scarico del compressore è più alta rispetto a quella ideale   (maggiore lavoro di compressione). 
- Espansione non isoentropica - dato un certo rapporto di compressione,   l'entalpia allo scarico della turbina è più alta rispetto a quella ideale   (minore lavoro di espansione). 
- Perdite di carico in camera di combustione – riducono il salto di pressione   disponibile per l’espansione e quindi anche il lavoro utile. 
Come per qualunque macchina termica, un’alta temperatura di combustione   produce un’alta efficienza, come dimostrato dal ciclo ideale di Carnot, in cui si dimostra che   il rendimento è tanto più elevato, quanto più è alto il rapporto tra temperatura   massima e minima del ciclo. Il fattore limitante è la capacità dei materiali che   costituiscono la macchina (acciaio, super leghe a base nichel o cobalto e materiali ceramici) a resistere a temperatura   e pressione. La ricerca si è infatti concentrata verso le tecniche rivolte al   raffreddamento dei componenti, le quali consentono alle palette più sollecitate,   quelle della turbina, di resistere continuativamente a temperature superiori a   1.500 K. In molte applicazioni si cerca anche di recuperare il calore allo   scarico, altrimenti dissipato. I rigeneratori sono scambiatori di calore che   trasferiscono il calore dei gas di scarico all’aria compressa, prima della   combustione. Nella configurazione del ciclo combinato, la caldaia a recupero   trasferisce il calore ad un sistema che alimenta una turbina a vapore. Nel caso   della cogenerazione il calore recuperato serve per produrre acqua calda. Gli   impianti che sfruttano questo recupero di calore, sono definiti impianti   combinati, in quanto combinano il ciclo Brayton della turbina a gas con   quello Rankine della turbina a vapore. Da un punto di vista meccanico, le turbine a gas possono   essere considerevolmente più semplici rispetto ai motori a combustione interna   alternativi. Le turbine più semplici possono avere un solo organo mobile   (escludendo il sistema combustibile): il rotore composto da albero, compressore,   turbina e alternatore. Le turbine a gas più sofisticate possono avere alberi   multipli, centinaia di palette di turbina, palette statoriche regolabili e   sistemi complessi di tubazioni, combustori e scambiatori di calore. In generale,   al diminuire della taglia della turbina aumenta il regime di rotazione   dell’albero (o degli alberi), in quanto la velocità periferica delle pale è un   limite progettuale. I motori aeronautici operano intorno ai 10.000 giri/min   (sezione di alta pressione) e le micro turbine intorno ai 100.000 giri/min. I   cuscinetti portanti e reggispinta sono una parte critica per la progettazione.   Tradizionalmente sono stati usati cuscinetti idrodinamici a olio, oppure   cuscinetti a sfere raffreddati a olio. La tendenza attuale è verso i cuscinetti   ad aghi che sono comunemente utilizzati nelle micro turbine e nelle APU   (Auxiliary Power Units: Unità di Potenza Ausiliarie). In figura è mostrata una turbina a gas in fase di montaggio. 

     Unità trattamento aria (UTA). 
  L'Unità trattamento aria, più nota con l'acronimo U.T.A. è una macchina utilizzata negli impianti di climatizzazione, siano essi a tutta aria o misti aria/acqua. Il loro scopo è quello di prelevare l'aria dall'esterno trattandola a seconda delle richieste climatiche degli ambienti interni. I parametri che sono coinvolti nel trattamento dell'aria sono:
temperatura 
umidità 
velocità 
purezza 
per ciascuno di questi parametri esiste un organo o un componente della macchina in grado di controllarlo, regolarlo e/o modificarlo.
La U.T.A. è definita macchina per il semplice fatto che è dotata di un ventilatore capace di aspirare l'aria dall'esterno e di spingerla verso i punti di diffusione in ambiente. Ma il ventilatore in realtà è solo l'ultimo pezzo dell'unità, che può essere assimilata ad una tubazione lungo la quale si incontrano tutti i componenti necessari al corretto funzionamento dell'impianto. Quando l'aria attraversa l'U.T.A. generalmente incontra:
una serranda di presa 
un recuperatore 
 
un filtro a bassa efficienza 
una batteria di scambio termico (pre-riscaldamento) 
una batteria di scambio termico (raffreddamento e deumidificazione) 
una sezione umidificante 
una batteria di scambio termico (post-riscaldamento) 
un filtro ad alta efficienza 
un ventilatore (mandata) 
un silenziatore. 
Nel caso di impianto a tutt'aria con ricircolo, esiste anche una zona di miscela con l'aria riincanalata nell'impianto, che può essere posta o nella parte iniziale o nella parte centrale della macchina. Vi sono unità che non presentano il recuperatore di calore, e addirittura macchine che non sono dotate di batteria di post-riscaldamento, poiché quest'ultimo può essere effettuato a livello periferico (post-riscaldamento di zona). Il recupero energetico viene spesso effettuato ai fini del risparmio di energia. Quando una U.T.A. è dotata di recuperatore, oltre al ventilatore di mandata è presente anche un ventilatore di ripresa dell'aria trattata; in questo modo si hanno due percorsi indipendenti, aria da trattare ed aria trattata.
Il recupero di calore può essere di 2 tipi: sensibile e latente. Nel primo caso si ha una cessione del contenuto entalpico di uno dei 2 fluidi in modo da pre-riscaldare (d'inverno) o pre-raffreddare (d'estate) l'aria da trattare.
Il recupero latente si ha solo d'estate, e può essere spiegato in questo modo: in estate l'aria è molto umida, e per eliminare l'umidità l'unico mezzo è quello di farla condensare. Per poter condensare questo vapore acqueo è necessario prelevare una quantità di calore nota come calore latente di vaporizzazione. Quindi l'aria trattata, fredda e deumidificata, assorbe questo calore e opera una pre-deumidificazione dell'aria da trattare. Ovviamente nel caso si abbia un recupero latente è presente anche uno sensibile.
    UNIVERSO a grande scala 
 Vedi articoli specifici.
    UNIVERSO. L'evoluzione dell' 
 Vedi articolo specifico.
    Uso razionale di  energia 
  Operazione tecnologica con la quale si tenta  di realizzare gli stessi prodotti o servizi con un minor consumo di energia  primaria, eventualmente avvalendosi in misura maggiore di altre risorse (capitale,  lavoro, materiali).
     Varese Ligure 
  Un modello energetico da imitare. Vedi articolo.
Clicca l'iniziale per trovare la parola cercata
A B C 
D E F 
G H I J K 
L M N O 
P Q R 
S T U
 
 V  W  X  Y  Z 
 Van der Waals (Equazione di stato di) 
  La legge di van der Waals è una legge fisica che descrive il comportamento dei gas reali. Rappresenta   un'estensione della legge dei gas perfetti, rispetto alla   quale consente una migliore descrizione dello stato gassoso per le alte   pressioni e in prossimità del punto di ebollizione. La legge prende il nome dal fisico olandese Johannes Diderik van der Waals (1837-1923), che la propose in un lavoro del 1873;   per la formulazione di questa legge lo studioso fu insignito del premio Nobel per la fisica   nel 1910. La legge di van der Waals è una equazione di stato che estende la legge dei gas perfetti:
    
con l'introduzione di due valori a e b (dette costanti di van   der Waals) che dipendono dalla sostanza in esame. La formulazione della legge di van der Waals è la seguente:
    
Dove p è la pressione del gas, n la quantità di sostanza (numero di moli),V il volume occupato, R la costante universale dei   gas e T la temperatura assoluta. Sostituendo eventualmente il volume totale del gas V con il volume molare Vm, si ottiene una espressione più   generica priva del fattore n
    
 Quando le molecole si trovano molto vicine tra di loro, cioè praticamente a   contatto, risentono delle forze repulsive dei rispettivi elettroni (che come è   noto orbitano intorno ai nuclei e sono carichi negativamente). Le molecole si   comportano quindi approssimativamente come delle sfere rigide  che non possono avvicinarsi a distanza minore di 2r (dove r è il raggio delle sfere). Quando due molecole si urtano escludono un volume pari   ad una sfera di raggio 2r, cioè 32 π r³/3; il volume escluso dalle due   molecole e 8 π r³/3. La presenza di forze repulsive viene descritta semplicemente sostituendo al   volume V il "volume libero" V - n b, dove b è il volume molare "escluso"   (detto covolume), cioè il volume propriamente occupato dalle molecole di   una mole di gas. Nel gas perfetto non esiste volume escluso, ovvero le molecole   sono immaginate come puntiformi.A basse pressioni tale volume è trascurabile   rispetto a quello in cui si muovono le molecole, mentre non lo è più a pressioni   molto elevate. Se la pressione del gas non è troppo elevata, il modello di Van der Waals e   il modello di gas perfetto non differiscono di molto. Ciò è dovuto al fatto   che:
  - il volume escluso b è trascurabile rispetto V; a esempio, nel   caso di CO2, b= 43 cm³, mentre il volume molare standard (a   0°C e 1 atmosfera) è pari a 22. 414 cm³; 
- le distanze tra le molecole sono abbastanza grandi da rendere il termine a/V² sostanzialmente nullo. Sempre nel caso di CO2 il termine a/V² rappresenta solo il 7 per mille della pressione atmosferica. 
In questi casi l'equazione di stato dei gas perfetti rappresenta una buona   approssimazione del gas "reale".

  Confronto tra legge dei gas perfetti (in verde) e legge di Van der Waals (in   rosso) per il biossido di carbonio (CO2). Legenda: p =   pressione; V = volume; T = temperatura; R = costante dei gas; A = zona delle forze repulsive; B = zona delle forze attrattive.
Se la pressione del gas è più elevata si osservano invece differenze   significative tra i due modelli):
  - nella zona delle medie pressioni, tra 5 e 15 MPa (50-150 atm) il   volume V diminuisce sufficientemente da fare sentire il peso del termine a/V²;   questo significa che le forze di attrazione tra le molecole non sono più   trascurabili ed hanno l'effetto di ridurre la pressione rispetto all'ipotetico   gas perfetto in cui le molecole non interagiscono. 
- Nella zona delle alte pressioni, maggiori di 15 MPa, il volume si è   ridotto al punto che b non è più trascurabile rispetto a V; in questo   modo l'espressione V - nb nel denominatore dell'equazione (3) diventa un   numero significativamente minore di V, con relativo aumento di pressione   e "sorpasso" della curva di Van der Waals rispetto a quella dei gas perfetti. 
  Vapore 
  In fisica è uno stato   fisico della materia, definibile come stato gassoso a temperatura inferiore alla propria temperatura   critica. Nel linguaggio comune, vapore è utilizzato come sinonimo di vapore acqueo, anche   detto vapore d'acqua. Dal punto di vista fisico gas e vapore si distinguono perché il gas non può   in alcun modo essere condensato (ridotto allo stato liquido) se non dopo essere   stato portato a temperatura inferiore a quella critica. A esempio l'aria può   essere compressa sino a migliaia di atmosfere di pressione rimanendo gas; per   renderla liquida è necessario che la sua temperatura sia minore di circa - 150   °C. Data la caratteristica dei composti puri di avere una evaporazione isotermica, un vapore può trovarsi in   equilibrio con la fase liquida (ossia   alla temperatura di ebollizione del composto alle condizioni di pressione   date) : si parla in tal caso di vapore saturo. Se la temperatura del vapore è   superiore a quella di ebollizione, si parla di vapore surriscaldato.
   Vapore saturo 
  E' un vapore che si trova in uno stato di equilibrio con la fase liquida, in cui il numero di particelle che dalla   fase liquida passano alla fase gassosa è uguale al numero di quelle che si   condensano nel liquido; contrapposto al vapore surriscaldato che invece, portato a   temperature più elevate, è puramente gassoso. A seconda del titolo può essere distinto in vapore saturo   secco (titolo uguale a 1) o vapore saturo umido (titolo minore di   uno). È il comune vapore che si può osservare in cucina ed è quello che viene   generalmente prodotto nelle caldaie a   tubi di fumo (vedi). Il vapore saturo è meno efficiente dal punto di vista termodinamico e può   presentare fenomeni di condensazione del vapore nella fase di espansione dello   stesso nei cilindri. Nel caso di liquido + vapore in condizione di vapore saturo la pressione   esercitata dal vapore sul liquido prende il nome di tensione di   vapore. Da un punto di vista molecolare l'evaporazione consiste nella fuga di   molecole veloci dalla superficie di un liquido. Quando il liquido si trova alla   temperatura di TK (Terakelvin), le molecole hanno energia di   traslazione che in media è uguale a 3/2kT. Se il vapore viene continuamente   soffiato via,il processo di evaporazione procede in tempi molto rapidi, poiché   le molecole veloci vengono sottratte al liquido e l'energia cinetica delle   molecole restanti diminuisce. Quando invece il vapore rimane sopra il liquido   alcune molecole allo stato di vapore riescono a tornare indietro. Se   l'evaporazione avviene in un ambiente chiuso,all'inizio vi sarà una grossa   fuoriuscita di molecole dal liquido. L'ambiente diventa saturo di vapore, vale a dire che il vapore ha raggiunto   la massima concentrazione permessa per la temperatura a cui si trova.
    Vapore surriscaldato 
  S i dice del vapore portato alla temperatura superiore a quella   corrispondente a quella di vaporizzazione °C, cosa che comporta la completa vaporizzazione   dell'acqua, al fine di migliorare il rendimento termodinamico dell'intero motore a vapore. Il surriscaldamento si ottiene prelevando in caldaia il vapore saturo e facendogli   percorrere il surriscaldatore,   un insieme di tubi che vengono investiti direttamente dai gas di   combustione.Rispetto al vapore saturo nel vapore surriscaldato aumentano, a parità di   pressione, temperatura ed entalpia (ossia il contenuto termico). Il miglioramento del rendimento che si ottiene è   paragonabile a quello dato dalla doppia espansione, almeno sulle locomotive a   vapore, ma con una notevole semplificazione della macchina a vapore.
   Vegetazione urbana. 
  Vedi articolo dedicato all'argomento.
    Velocità di deriva o di drift di portatori carichi. 
  Nella definizione di densità di corrente ci si trova di fronte ad una   velocità dei portatori di carica. Questa velocità non è la velocità propria   degli elettroni o dei portatori di carica positiva (ioni o altro). La velocità di agitazione termica delle particelle entro un conduttore o un   gas è dovuta all'agitazione termica e ubbidisce alle distribuzioni statistiche e   al principio di equipartizione dell'energia ed è dell'ordine di 105m / s. In effetti si può   facilmente stimare:
    
dove  è la massa di un elettrone,
 è la massa di un elettrone,  è la costante di Boltzmann e
 è la costante di Boltzmann e 
 è la temperatura ambiente assoluta. Risulta, pertanto:
 è la temperatura ambiente assoluta. Risulta, pertanto:
   . .
Oltre a questo moto casuale, perché ci sia un flusso di carica, i portatori   di carica devono muoversi di un'uguale velocità di deriva o di trascinamento. Gli elettroni di conduzione sono i portatori di carica nei   metalli e seguono percorsi irregolari, saltando da un atomo all'altro, ma   muovendosi nel complesso nella direzione del campo elettrico. La loro velocità   di deriva è circa dell'ordine di  cioè frazioni di millimetro al secondo. Possiamo stimare questa velocità usando   l'energia:
 cioè frazioni di millimetro al secondo. Possiamo stimare questa velocità usando   l'energia:
   , ,
dove <t> è il tempo medio del cammino libero medio tra gli urti   di due elettroni. La velocità di deriva si può anche calcolare secondo l'equazione:
    
dove
   è l'intensità di corrente è l'intensità di corrente
 è il numero di portatori di carica per unità di volume è il numero di portatori di carica per unità di volume
 è l'area della sezione del conduttore è l'area della sezione del conduttore
 è la velocità di deriva, e è la velocità di deriva, e
 è la carica di ciascun portatore di carica. è la carica di ciascun portatore di carica.
Le correnti elettriche nei solidi tipicamente fluiscono molto lentamente. Per   esempio, in un cavo di rame di sezione pari a 0,5 mm², con una corrente di 5 A,   la velocità di deriva è nell'ordine del millimetro al secondo. Invece, in un tubo catodico, quasi vuoto,   gli elettroni si muovono su linee quasi rette a circa un decimo della velocità   della luce. Questa bassa velocità non impedisce ai segnali elettrici di trasmettersi a   velocità dell'ordine della velocità della luce, poiché quello che   si propaga non è la carica elettrica, ma il campo elettrico attraverso il   conduttore. Questa ultima considerazione ci permette di vedere che il vettore densità di   carica è proporzionale al campo elettrico, infatti:
    
dove  è il cammino libero medio degli elettroni e vt è la velocità di agitazione   termica degli elettroni.
 è il cammino libero medio degli elettroni e vt è la velocità di agitazione   termica degli elettroni.
In questo modo  dove σ è la conduttività elettrica ed è il   fattore di proporzionalità.
 dove σ è la conduttività elettrica ed è il   fattore di proporzionalità.
 Vendita (Società di) 
  Sono i soggetti autorizzati ad intrattenere rapporti commerciali di vendita con   i clienti finali in libero mercato.
     Vento 
  L’energia del vento (eolica), legata ai movimenti delle masse d’aria tra le   zone di alta e bassa pressione atmosferica, è diffusa ovunque sulla Terra, ma   solo in alcune zone è sufficientemente intensa e regolare da presentare   interesse ai fini di una utilizzazione pratica. Lo sfruttamento dei venti per   ricavarne energia utile dapprima per la navigazione, poi per l'irrigazione e la   lavorazione di prodotti agricoli, risale agli albori della civiltà umana ed è   tutt’oggi praticato in vari modi. Più recente, invece, è la conversione   dell’energia eolica in energia elettrica. Questo processo avviene con macchine   denominate aerogeneratori, che concettualmente derivano dai tradizionali mulini   a vento. Un aerogeneratore, infatti, è costituito da un rotore formato da alcune   pale (in genere una, due o tre) fissate su un mozzo e progettate per sottrarre   al vento parte della sua energia cinetica. Tramite la rotazione delle pale viene   azionato il generatore di energia elettrica. In concreto, però, i moderni   aerogeneratori hanno davvero ben poco in comune con i tradizionali mulini a   vento, poiché si tratta di macchine molto sofisticate, realizzate con materiali   idonei a resistere a sollecitazioni che - nel caso delle macchine più grandi -   sono confrontabili a quelle delle ali di aeroplani. Le estremità delle pale   possono infatti raggiungere velocità superiori anche di cinque volte a quella   del vento e, nel caso di raffiche anomale o di tempeste, ai bordi si possono   raggiungere velocità quasi supersoniche. La velocità del vento ha,   naturalmente, un ruolo determinante sia nella progettazione delle macchine, sia   nella valutazione del potenziale eolico di un sito. Ai fini di uno sfruttamento   economicamente vantaggioso dell’energia eolica è pertanto fondamentale lo studio   delle variazioni della velocità del vento in un determinato sito, che deve   essere condotto sulla base di osservazioni di lungo periodo. 
  L’energia   eolica è una fonte priva di emissioni: la conversione in energia elettrica   avviene, infatti, senza alcun rilascio di sostanze nell’atmosfera. In   termini di impatto ambientale, l’unica accortezza che è necessario assumere è   quella di un corretto inserimento delle centrali (costituite da un insieme di   aerogeneratori, a volte alcune decine) nel contesto paesaggistico   circostante. Tra le nuove fonti rinnovabili è inoltre quella   tecnologicamente più matura e più vicina alla competitività economica con le   tradizionali fonti di produzione elettrica . Ciò spiega il forte sviluppo   che sta conoscendo in questi ultimi anni; in particolare nell’ Unione Europea,   ove la potenza eolica installata  è   la maggiore a livello mondiale. Paesi come la Germania, la Spagna e la Danimarca   si pongono all’avanguardia in questo settore, ma è rilevante anche lo sviluppo   dell’energia eolica in Italia ,   benché nel nostro Paese siano presenti numerosi fattori che condizionano   negativamente lo sviluppo di tale fonte (la scarsa ventosità media, la   conformazione in gran parte montuosa del territorio, l’elevata densità abitativa   e la diffusa presenza sul territorio di beni culturali e siti   archeologici). Il contributo dell’eolico alla produzione nazionale di   energia elettrica da fonti rinnovabili  non solo è in costante crescita, ma è anzi quello che ha registrato il   maggiore incremento nell’ultimo decennio. In particolare, nello scenario   nazionale che vede un forte sviluppo di campi eolici nelle Regioni meridionali.
     Verso convenzionale dell'energia elettrica 
    Si assume come verso positivo (o entrante) dell’energia quello in ingresso alla   Rtn. Si assume come verso negativo (o uscente) dell’energia quello uscente dalla   Rtn. 
     Vettoriamento 
  Servizio di trasporto dell'energia elettrica da uno o più punti di consegna ad   uno o più punti di riconsegna, come definito dalla Delibera 13/99 dell'Autorità   per l'Energia Elettrica e il Gas (AEEG).
   Volt (V) 
  Unità di misura della tensione esistente  tra due punti in un campo elettrico. Ai capi di una cella fotovoltaica si stabilisce una tensione di  circa 0,5 Volt; circa 17 Volt ai capi di un tipico modulo fotovoltaico (nel punto di massima potenza).
   Voltura 
  Consiste nella risoluzione del contratto esistente e contestuale stipula di un   nuovo contratto di fornitura di energia elettrica, da parte di altro   intestatario e senza alcun intervento tecnico sul misuratore (a parità di   potenza impegnata).
     Vuoto quantistico 
  Vedi articolo specialistico.
   Watt (W) 
  E' l'unità di misura della potenza del Sistema Internazionale. Un watt equivale a 1 joule al secondo (1 J/s) o, in unità elettriche, 1 voltampere. Il watt prende il nome da James Watt per il suo contributo nello sviluppo   della macchina a vapore. In elettrotecnica si   utilizzano comunemente anche il VA (voltampere) e il VAR (voltampere reattivo) come unità di misura   rispettivamente della potenza apparente e della potenza   reattiva. Dimensionalmente equivalenti al watt, il loro uso è giustificato   dal fatto che indicano grandezze che generalmente non possono essere sommate   direttamente. Alcuni dei multipli e sottomultipli più utilizzati del watt, sono:
  - milliwatt (mW) =   10-3 W = 0,001 W 
- chilowatt (kW) =   103 W = 1.000 W 
- megawatt (MW) = 106 W =   1.000.000 W 
- gigawatt (GW) =   109 W = 1.000.000.000 W 
- terawatt (TW) = 1012 W =   1.000.000.000.000 W 
  Watt di picco (Wp) 
  Unità di misura usata per indicare la  potenza che un dispositivo fotovoltaico può produrre in condizioni sandard di funzionamento (irraggiamento  1.000 W/m2 e temperatura 25°C).
   Wattora (Wh) 
  E' una misura di energia;   corrisponde alla potenza di un watt fornita per un'ora, quindi 3.600 joule. Non   appartiene al SI, in quanto   contiene la misura del tempo in ore; è comunemente utilizzata per la   tariffazione dell'energia. Quindi una lampadina che assorbe 100 W, in due ore consuma 200 Wh (720.000   J).
 Zetta
Zetta è un prefisso SI che esprime il fattore 10exp21,   ovvero 1000exp7, ovvero 1 000 000 000 000 000 000 000, ovvero mille   miliardi di miliardi. È stato adottato nel 1991 dalla CGPM. Deriva dal francese   sept e ricorda la settima potenza di 1000. Qualche anno prima, per esprimere lo   stesso fattore, era stato introdotto non ufficialmente il prefisso Hepa,   apparentemente derivato dalla parola greca, hepta, sette.
Prefissi del Sistema Internazionale 
  
    
      
        | 10n | Prefisso | Simb. | Nome | Equivalente decimale | 
      
        | 1024 | yotta | Y | Quadrilione | 1 000 000 000 000 000 000 000 000 | 
      
        | 1021 | zetta | Z | Triliardo | 1 000 000 000 000 000 000 000 | 
      
        | 1018 | exa | E | Trilione | 1 000 000 000 000 000 000 | 
      
        | 1015 | peta | P | Biliardo | 1 000 000 000 000 000 | 
      
        | 1012 | tera | T | Bilione | 1 000 000 000 000 | 
      
        | 109 | giga | G | Miliardo | 1 000 000 000 | 
      
        | 106 | mega | M | Milione | 1 000 000 | 
      
        | 103 | kilo | k | Mille | 1 000 | 
      
        | 102 | etto | h | Cento | 100 | 
      
        | 10 | deca | da | Dieci | 10 | 
      
        | 10−1 | deci | d | Decimo | 0,1 | 
      
        | 10−2 | centi | c | Centesimo | 0,01 | 
      
        | 10−3 | milli | m | Millesimo | 0,001 | 
      
        | 10−6 | micro | µ | Milionesimo | 0,000 001 | 
      
        | 10−9 | nano | n | Miliardesimo | 0,000 000 001 | 
      
        | 10−12 | pico | p | Bilionesimo | 0,000 000 000 001 | 
      
        | 10−15 | femto | f | Biliardesimo | 0,000 000 000 000 001 | 
      
        | 10−18 | atto | a | Trilionesimo | 0,000 000 000 000 000 001 | 
      
        | 10−21 | zepto | z | Triliardesimo | 0,000 000 000 000 000 000 001 | 
      
        | 10−24 | yocto | y | Quadrilionesimo | 0,000 000 000 000 000 000 000 001 | 
    
  
 
