La notte in cui un errore di calcolo poteva causare l’apocalisse nucleare
Era il 26 settembre 1983, nel pieno della Guerra Fredda. Le tensioni tra Stati Uniti e Unione Sovietica avevano raggiunto livelli critici. Appena tre settimane prima, l’URSS aveva abbattuto un aereo civile coreano, uccidendo 269 persone, e il mondo era sull’orlo del baratro nucleare, senza che nessuno immaginasse quanto ci saremmo avvicinati quella notte.
L’uomo che salvò il mondo con un “no”
Il tenente colonnello Stanislav Petrov, 44 anni, era di turno nel bunker di comando Serpukhov-15, vicino a Mosca. Il suo compito era monitorare il sistema satellitare di allarme precoce sovietico, chiamato OKO, progettato per rilevare eventuali lanci di missili balistici statunitensi.
Improvvisamente, alle 00:14, gli schermi si accesero. Un missile intercontinentale americano sembrava essere stato lanciato verso l’URSS! Il protocollo era chiaro: avvisare immediatamente i superiori, che probabilmente avrebbero ordinato una rappresaglia nucleare.
Ma qualcosa non quadrava. Grazie alla sua formazione da ingegnere, Petrov pensò immediatamente: “Un attacco nucleare reale avrebbe coinvolto centinaia di missili, non solo uno”. Prima che potesse completare il ragionamento, il sistema segnalò un secondo missile… poi un terzo, un quarto e un quinto.
“Stavo solo facendo il mio lavoro. Non mi considero un eroe.”
— Stanislav Petrov, in un’intervista del 2013
La natura tecnica del bug: quando la luce inganna
Il pericoloso falso allarme fu causato da un raro allineamento astronomico che ingannò i sensori dei satelliti sovietici. I raggi solari si riflessero sulle nuvole ad alta quota in modo particolare, creando un modello luminoso che i sensori a infrarossi interpretarono erroneamente come firme termiche di lanci missilistici.
Il sistema OKO era ancora in fase sperimentale e i suoi algoritmi non erano predisposti per gestire quella configurazione ottica. Fu un classico esempio di situazione limite, che i programmatori non avevano previsto.
La decisione che salvò il mondo
Nonostante l’immensa pressione, Petrov si fidò del suo istinto e delle anomalie riscontrate:
- I radar a terra non confermavano alcun lancio
- La traiettoria dei presunti missili risultava irregolare
- Un attacco iniziale con soli cinque missili era strategicamente poco plausibile
Decise così di classificare l’allarme come falso e di non informare i suoi superiori. Se avesse segnalato l’attacco, data la dottrina militare sovietica dell’epoca e l’estrema tensione politica, è molto probabile che sarebbe stata avviata una rappresaglia nucleare.
Il debug post-incidente e le lezioni apprese
Le analisi tecniche successive confermarono la teoria della riflessione solare. Gli ingegneri sovietici modificarono gli algoritmi del sistema per distinguere meglio tra veri lanci missilistici e fenomeni ottici naturali, introducendo più livelli di verifica incrociata con sistemi differenti per evitare futuri falsi allarmi.
Questo episodio ha messo in luce uno dei problemi più gravi dei sistemi di comando e controllo nucleare: il tempo estremamente ristretto a disposizione per prendere decisioni, con missili che potevano raggiungere il bersaglio in meno di 30 minuti.
Un eroe nell’ombra
La vicenda rimase segreta fino al 1998, quando il generale Yury Votintsev, ex comandante delle Forze di Difesa Aerea Sovietiche, la rivelò nelle sue memorie. Inizialmente Petrov fu ripreso per non aver compilato correttamente il registro delle operazioni quella notte, ma anni dopo ricevette riconoscimenti internazionali, tra cui il Premio delle Nazioni Unite per la Pace nel 2006.
Petrov è morto nel maggio 2017, relativamente sconosciuto in Russia ma celebrato nel resto del mondo come “l’uomo che salvò la Terra”. La sua storia ci ricorda quanto possano essere devastanti gli errori nei sistemi critici e come, a volte, il giudizio umano resti insostituibile anche nell’era dell’automazione.
Ancora oggi, gli esperti di sicurezza informatica studiano questo caso come esempio di quanto sia fondamentale che l’interazione tra uomo e macchina preveda controlli multipli e la possibilità di intervento umano, soprattutto quando le conseguenze di un errore potrebbero essere gravissime.