Fallimenti strategici e azione preventiva

22 aprile 2014

Intelligence and Surprise Attack

La nascita di una disciplina

“La ragione per cui non abbiamo previsto l’attacco a Pearl Harbor non è la mancanza di informazioni rilevanti bensì l’eccesso di quelle irrilevanti”. Scriveva così negli anni ’50 Roberta Wohlstetter, storica e analista militare statunitense, nel suo importante studio sul fallimento dell’intelligence americana nell’anticipare l’attacco alle basi navali del Pacifico da parte delle forze armate giapponesi.

Pearl Harbor: Warning and Decision, la cui pubblicazione venne autorizzata solo nel 1962, è generalmente considerato come il primo, fondamentale, saggio di quella pregiata branca degli studi di intelligence che si occupa dei fallimenti dei Servizi segreti e in particolare dei fallimenti connessi agli attacchi militari a sorpresa e di livello strategico.

Nel corso della Guerra Fredda, infatti, un nucleo di storici e politologi, soprattutto statunitensi ma anche britannici e israeliani, si è dedicato all’esame dettagliato di alcune importanti operazioni militari sviluppando un’interessante e utile letteratura sull’argomento. Concetti, a esempio, come “capacità” e “intenzione”, “inganno strategico”, “denial and deception”, fondamentali per l’operatività dell’intelligence, nascono o vengono sviluppati e affinati proprio nell’ambito degli studi sui fallimenti dei Servizi segreti. La stessa ben nota tecnica analitica che va sotto il nome di “Indications & Warning”, strutturata su indicatori chiave e d’allarme, si consolida dagli anni ’60 in poi soprattutto tramite l’analisi di un vasto numero di case studies di fallimenti, sia tattici che strategici.

Non solo l’attacco a Pearl Harbor, quindi, ma anche l’Operazione Barbarossa, l’attacco a sorpresa tedesco contro la Russia nel 1941 o il conflitto arabo-israeliano dello Yom Kippur (1973) sono stati oggetto di ricerche e analisi al fine di identificare, da un lato, i limiti e gli errori dell’intelligence, incapace di lanciare con sufficiente anticipo un allarme preventivo (warning), dall’altro, i punti di forza degli aggressori, capaci, viceversa, di realizzare con successo un attacco a sorpresa implementando operazioni militarmente complesse in modo più o meno occulto.

In pieno confronto tra la NATO e il Patto di Varsavia risultava, infatti, di vitale importanza mettere a punto un efficiente sistema di early warning in grado di prevenire sia attacchi convenzionali che nucleari, migliorando le capacità dei Servizi di intelligence e riducendone il margine di errore attraverso un serio processo di apprendimento e di individuazione delle “best practices”.

Dagli anni ’80 il campo di studio si è poi progressivamente ampliato passando dall’analisi dei soli fallimenti connessi ad attacchi militari allo studio delle c.d. “sorprese strategiche” non collegate ad attacchi armati, episodi come la Rivoluzione iraniana del 1979 o la crisi dei missili di Cuba del 1962 nei quali i Servizi segreti non sono riusciti a informare correttamente il decisore politico-strategico.

Infine, dopo l’11 settembre del 2001, lo studio si è focalizzato sui fallimenti dell’intelligence nel contrasto al terrorismo ovvero sui casi nei quali i Servizi di sicurezza non sono riusciti a sventare complotti terroristici con gravi danni alla sicurezza nazionale.

Le principali scuole di pensiero

Cosa si intende, quindi, per “fallimento dell’intelligence”? Come evidenziato da Erik Dahl nel suo libro Intelligence and Surprise Attack: Failure and Success from Pearl Harbor to 9/11 and Beyond, è sorprendente che, nonostante il grande livello di attenzione dedicato al tema, vi sia tra gli studiosi poco accordo proprio sul concetto stesso di “intelligence failure”[1]. In letteratura, infatti, manca una definizione unanimemente accettata.

Sinteticamente, gli studiosi si dividono tra coloro che ritengono che un fallimento dell’intelligence sia da considerarsi tale solo quando a fallire siano i Servizi segreti e coloro che ritengono, invece, che si possa parlare di fallimento quando l’errore o l’incapacità gravi sul decisore.

A esempio, secondo Mark Lowenthal, già dirigente della CIA, un “fallimento dell’intelligence consiste nell’incapacità, da parte delle agenzie di intelligence, di fornire informazioni/analisi accurate e tempestive su un evento o su una questione di interesse nazionale”[2]. Secondo Gary Schmitt e Abram Shulsky, invece, “un fallimento è essenzialmente l’errata comprensione di una situazione che porta un governo o le sue forze armate a intraprendere azioni inappropriate e controproducenti per i propri interessi”[3].

Erik J. Dahl, docente di sicurezza nazionale presso la Naval Postgraduate School, nel suo saggio, propone una definizione che ricomprende entrambi i lati del processo: agenzie e decisori. Un fallimento, scrive Dahl, può essere causato sia dai Servizi, quando sono incapaci di produrre l’intelligence necessaria ai decision makers, sia da questi ultimi quando sono incapaci di agire appropriatamente sulla base delle informazioni ricevute.

Perché, quindi, l’intelligence fallisce? Dall’analisi della letteratura internazionale è possibile individuare tre differenti scuole di pensiero. Secondo la prima, che Dahl definisce “tradizionale” e tra i cui esponenti di punta egli colloca sia Richard Betts che la stessa Roberta Wohlstetter, i fallimenti sono naturali e, in parte, inevitabili[4]. Secondo tale scuola “failures” si realizzano o nella fase analitica, generalmente a causa di limiti cognitivi inerenti e in quanto tali mai del tutto eliminabili, o nella fase di ricezione e assorbimento delle informazioni da parte del decisore, il quale o non è predisposto a recepirle o non agisce come dovrebbe.

Scrive Michael Handel che la maggior parte dei fallimenti si verifica perché gli analisti di intelligence o i decision makers rifiutano di adattarsi alle nuove informazioni. Secondo Richards Heuer, autore di un famoso studio sulla psicologia degli analisti, molti dei fallimenti sono causati dalla resistenza al cambiamento e da bias cognitivi tipici della mente umana. In tal senso per gli studiosi “tradizionalisti” è, sì, possibile migliorare le prestazioni dell’intelligence ma non al punto da eliminare definitivamente i fallimenti che, anzi, sono spesso inevitabili, come scriveva Richard Betts già nel 1978[5]. Seguendo la medesima logica, a esempio, in anni più recenti, in occasione dei drammatici eventi dell’11 settembre, diversi analisti hanno concluso che gli attacchi terroristici non sempre possono essere prevenuti e che per questo motivo la migliore strategia possibile è quella di prepararsi a gestirne le conseguenze piuttosto che tentare, spesso inutilmente, di raggiungere una sicurezza assoluta.

Secondo Erik Dahl la “scuola tradizionale” si contraddistingue oltre che per un latente pessimismo anche per una pressoché totale disattenzione a eventuali errori e/o limiti nella fase della raccolta informativa.

La seconda scuola è quella cosiddetta “riformista”. Raccoglie un numero inferiore di studiosi rispetto alla scuola “tradizionale” dalla quale si differenzia soprattutto per la fiducia nella possibilità di ottenere consistenti miglioramenti nelle prestazioni dell’intelligence. A differenza dei ricercatori “tradizionalisti”, i quali ritengono che un margine di errore sia comunque fisiologico e insopprimibile, gli esperti che appartengono a questa seconda scuola di pensiero sostengono che i fallimenti sono causati da limiti di natura organizzativa che, in quanto tali, possono essere superati con specifiche riorganizzazioni burocratiche.

I riformisti, infatti, sostengono che le inefficienze dell’intelligence siano causate generalmente da un insufficiente coordinamento tra le agenzie e/o da una mancata condivisione delle informazioni tra i vari uffici. Problemi, questi, dovuti a un’erronea organizzazione istituzionale.

Glenn Hastedt, a esempio, afferma in uno studio del 1985 che è la natura stessa delle organizzazioni burocratiche – gerarchizzate, specializzate e centralizzate – a limitare la capacità di condivisione delle informazioni e a causare “intelligence failures”[6]. Ancora prima, nel 1967, in un famoso saggio di teoria dell’organizzazione Harold Wilensky sosteneva che “if anything is clear from this book, it is that intelligence failures are built into complex organizations[7].

Più recentemente, in un ampio studio[8] realizzato dopo l’11 settembre, Amy Zegart, docente della Stanford University, ha evidenziato come le riorganizzazioni burocratiche siano state le soluzioni preferite e consigliate da tutte le commissioni governative e di esperti create per esaminare i fallimenti strategici dell’Intelligence Community di Washington. In effetti, dal 1991 al 2001, le dodici commissioni di studio istituite hanno proposto ben 340 interventi di riforma, in gran parte di tipo organizzativo.

La stessa Zegart, peraltro, ritiene tutt’ora che il problema principale della comunità di intelligence statunitense sia la disorganizzazione (o, meglio, un’inefficiente organizzazione) e, in contrasto con gli studiosi “tradizionalisti” che ritengono che i Servizi americani abbiano svolto un buon lavoro a livello di intelligence strategica, la ricercatrice della Hoover Institution valuta l’Intelligence statunitense come gravemente deficitaria sotto diversi aspetti. Ciò soprattutto a causa di un erroneo “disegno organizzativo”.

Esiste, infine, una terza scuola di pensiero che Erik Dahl definisce “contraria” perché in contrasto sia con l’approccio “tradizionalista” che con quello “riformista”. I più autorevoli esponenti di questa scuola, tra i quali David Kahn e Ariel Levite, ritengono che le cause dei principali fallimenti dell’intelligence siano da individuarsi nei processi di raccolta delle informazioni. Laddove, quindi, la scuola “tradizionalista” identifica il vulnus all’interno della fase analitica e quella riformista lo individua in ambito organizzativo, la scuola “contraria” si concentra sulla “collection” delle informazioni. I ricercatori che seguono quest’ultimo approccio sostengono che nei casi di fallimenti, a esempio l’11 settembre, non erano presenti informazioni idonee a generare un allarme, un early warning. Il problema, quindi, non è il limite cognitivo degli analisti o l’incapacità del decisore e neanche un inefficiente sistema burocratico. Il problema è l’insufficienza di informazioni: un fallimento strategico è generato da un fallimento nel campo della raccolta informativa.

La teoria dell’azione preventiva

Erik Dahl ritiene, al contrario, che tutte e tre le scuole di pensiero soffrano di alcuni importanti limiti.

Innanzitutto, nella maggior parte degli studi sui fallimenti non vengono analizzati i casi di successo. È questo un limite evidente e piuttosto consistente in quanto ciò non permette di testare le teorie analizzando i casi opposti nei quali gli attacchi a sorpresa falliscono e l’intelligence ha successo. È una “distorsione da selezione” che rischia di inficiare l’analisi complessiva.

Il secondo limite è costituito dal “hindsight bias” ovvero da quella tendenza a rivalutare, col “senno di poi”, le informazioni disponibili al momento dell’attacco a sorpresa. Segnali e dati che precedentemente apparivano deboli e poco significativi successivamente, dopo l’evento, appaiono chiari e fortemente indicativi di ciò che sarebbe avvenuto. Le informazioni, quindi, col “senno di poi”, risultano significative laddove precedentemente apparivano quantomeno neutre.

Esiste poi un terzo limite ed è dovuto al fatto che la letteratura sull’argomento prende in esame principalmente, benché non esclusivamente, episodi di fallimenti strategici convenzionali verificatisi durante la Guerra Fredda.

L’unico modo per studiare oggettivamente i fallimenti, conclude Dahl, è quello di confrontarli con casi di successo. Cosa non semplice, comunque, sia perché questi ultimi tendono a non essere dichiarati dagli stessi Servizi per tutelare la segretezza di operazioni, fonti e metodi, ma anche a causa del “paradosso dell’allarme” a causa del quale molti allarmi efficaci appaiano falsi proprio perché riescono a sventare e a prevenire l’attacco.

Disporre di dati sui successi dell’intelligence non è quindi semplice ma è comunque possibile e nel suo studio, per la prima volta in assoluto, Dahl testa le teorie delle tre scuole confrontando casi di fallimento con casi di successi dell’intelligence e inserendo nella sua analisi sia episodi di attacchi militari convenzionali che episodi di attacchi terroristici, non convenzionali.

Dahl giunge alla conclusione che sono due i fattori chiave per la prevenzione degli attacchi a sorpresa: la specificità dell’allarme e la ricettività del decisore.

Secondo la teoria dominante, soprattutto negli Stati Uniti, è l’intelligence di livello strategico a essere indispensabile affinché si possano prevenire attacchi a sorpresa. Scrive Dahl nel suo libro: “According to this standard view, the US intelligence community should not concentrate on acquiring tactical-level intelligence on potential attacks, because such precise warning is unlikely to be available. Instead, according to this conventional thinking, more emphasis needs to be placed on developing broad, strategic-level intelligence on future threats[9]. La ricerca a ampio spettro realizzata dal docente della Naval Postgraduate School smentisce, però, tale diffusa convinzione. In molti casi i warning strategici precedenti agli attacchi hanno correttamente identificato il quadro della minaccia ma sono stati poco o per nulla utili nell’effettiva prevenzione degli attacchi a causa della loro genericità. Mancando indicazioni sul chi, sul come, sul quando e sul dove, l’allarme non ha creato né quel senso di urgenza tale da spingere il decisore ad agire di conseguenza né ha fornito le informazioni di dettaglio indispensabili per un’efficace attività di prevenzione.

Viceversa, lo studio dei casi di successo dell’intelligence dimostra che quando i warning sono stati specifici e i policy maker ricettivi gli attacchi sono stati sventati.

L’analisi integrata di fallimenti e successi aiuta quindi a ridare valore all’intelligence tattica: “Compared with broader conflicts such as wars and military campaigns, surprise attacks rely on individual actions by a relatively small number of people. Specific pieces of information and tactical-level actions by the authorities can be enough to prevent the attack. Tactical-level intelligence is also most useful for preventing attacks because decision makers are more likely to make use of it, even though conventional wisdom says they prefer big-picture, strategic-level intelligence[10].

Il decisore risulta essere poco incline a dar retta a opinioni e previsioni e ben più sensibile, invece, verso dati e fatti. È questo il “paradosso del warning strategico” in base al quale i policy maker, benché dichiarino di aver bisogno di analisi strategiche, sono in effetti più attenti verso la specificità dei warning tattici.

Infine – è questo il secondo fattore chiave – l’intelligence tattica è più utile quando i leader sono ricettivi. La ricettività, scrive Erik Dahl, è un fenomeno complesso ma ancora poco esplorato dai ricercatori e che necessita di ulteriori studi. Esso consiste, sostanzialmente, nella fiducia che il decisore ha nei confronti dei Servizi e nella serietà con cui viene valuta la minaccia. Un decisore che ha fiducia nella propria Intelligence e non sottovaluta la minaccia tenderà a essere altamente ricettivo verso i warning lanciati dai Servizi e implementerà le opportune contromisure aumentando, in tal modo, le possibilità di prevenire l’attacco.

La storia dei successi e dei fallimenti dimostra, quindi, che le analisi strategiche non sono sufficienti nel convincere i leader a recepire gli allarmi dei Servizi segreti. Il ruolo dell’intelligence strategica, ovviamente, non deve essere sottovalutato. Come afferma Jack Davis, infatti, gli allarmi strategici assicurano che le giuste risorse siano rese disponibili per prevenire le minacce ed è corretto affermare che un buon livello di intelligence strategica prepari la strada all’intelligence tattica. Ma è quest’ultima lo strumento indispensabile per prevenire gli attacchi a sorpresa. In assenza di warning tattici le minacce possono essere immaginate (anche correttamente) ma difficilmente i leader daranno credito ai soli allarmi strategici. Il decisore preferisce prendere le proprie decisioni sulla base di fatti certi. Più ipotetica e teorica è l’analisi meno il policymaker sarà propenso a darle seguito.

Più nello specifico, inoltre, lo studio condotto da Erik Dahl sembra indicare che l’importanza dei due fattori necessari per l’azione preventiva muti in funzione del tipo di attacco. In caso di attacchi convenzionali, laddove in genere l’intelligence è in grado di raccogliere una grande varietà di informazioni specifiche, il fattore più importante è costituito dalla ricettività del decisore. In caso di attacchi terroristici, invece, laddove il decisore tende a essere già sensibile nei confronti della minaccia, il fattore più importante è costituito dalla disponibilità di warning tattici altamente specifici.

In conclusione, scrive Dahl, è sicuramente una buona idea prepararsi a gestire l’inaspettato e sviluppare piani di contingenza per rispondere a fallimenti e sorprese ma il compito primario dei sistemi di intelligence e di sicurezza nazionale consiste nel prevedere e nel prevenire tali sorprese. Lo studio dei fallimenti e dei successi suggerisce che la teoria dell’azione preventiva (disponibilità di intelligence tattica e buon livello di ricettività del decisore) è utile sia per la previsione che per la prevenzione[11].

 

Bibliografia minima di riferimento

Scuola “tradizionale”

Richard Betts, Surprise Attack: Lessons for Defense Planning, Brookings Institution Press, 1982.

Richard Betts, Enemies of Intelligence: Knowledge and Power in American National Security, Columbia University Press, 2007.

Michael Handel, Intelligence and the Problem of Strategic Surprise, Journal of Strategic Studies 7, n° 3, 1984.

Richards Heuer, Psychology of Intelligence Analysis, CIA Center for the Study of Intelligence, 1999.

Robert Jervis, Why Intelligence Fails: Lessons from the Iranian Revolution and the Iraq War, Cornell University Press, 2010.

Roberta Wholstetter, Pearl Harbor: Warning and Decision, Stanford University Press, 1962.

Scuola “riformista”

Glenn Hastedt, Organizational Foundations of Intelligence Failures, in Intelligence: Policy and Process, Westview Press, 1985.

Harold Wilensky, Organizational Intelligence: Knowledge and Policy in Government and Industry, Basic Books, 1967.

Amy Zegart, Spying Blind: The Cia, the FBI, and the Origins of 9/11, Princeton University Press, 2009.

Amy Zegart, “CNN with Secret’s:” 9/11, the CIA, and the Organizational Roots of Failure, International Journal of Intelligence and CounterIntelligence, 20, no. 1, 2007.

Amy Zegart, Flawed by Design: The Evolution of the CIA, JCS, and NSC, Stanford University Press, 1999.

Scuola “contraria”

David Kahn, The Intelligence Failure at Pearl Harbor, in Foreign Affairs, 138, p. 52.

Ariel Levite, Intelligence and Strategic Surprise, Columbia University Press, 1987.

 


[1] Dahl, E., Intelligence and Surprise Attack: Failure and Success from Pearl Harbor to 9/11 and Beyond, Georgetown University Press, 2013, p. 7.

[2] Lowenthal, M., The Burdensome Concept of Failure, in Intelligence and Policy Process, AA.VV, Westview Press, 1985, pag. 51.

[3] Shulsky, A. e Schmitt, G., Silent Warfare: Understanding the World of Intelligence, Brassey’s, 2002, p. 63.

[4] Si veda Betts, R., Analysis, War, and Decision: Why Intelligence Failure Are Inevitable, World Politics 31, no. 1, 1978.

[5] Ibidem.

[6] Hastedt, G., Organizational Foundations of Intelligence Failures”, in “Intelligence and Policy Process, AA.VV, Westview Press, 1985.

[7] Wilensky, H., Organizational intelligence: Knowledge and Policy in Government and Industry, Basic Books, 1967, p. 179.

[8] Zegart, A., Spying Blind: The CIA, the FBI, and the Origins of 9/11, Princeton University Press, 2007.

[9] Dahl, E. ,Intelligence and Surprise Attack: Failure and Success from Pearl Harbor to 9/11 and Beyond, Georgetown University Press, 2013, p. 176.

[10] Ivi, p. 177.

[11] Ivi, p. 182.

Tag: ,

Categoria: Letture

Su