Pensare a Colori: il modello cognitivo di Ned Hermman

Il nuovo stile di comunicazione “social” è ormai esteso anche alla vita reale e dimostra  ampiamente che per comunicare in modo efficace non è possibile restare aderenti ai fatti, ponendo al centro la rilevazione del dato oggettivo e le conseguenze analitiche derivabili. Chi lavora a contatto con audience variegate deve tenere necessariamente conto non solo del ruolo e della formazione della controparte, ma anche dell’orientamento di pensiero. Non è infrequente il caso in cui un dato oggettivo e la sua analisi possono essere persino controproducenti ai fini di una comunicazione efficace.

Già Carl Gustav Jung aveva posto l’attenzione sulle modalità di ciascuno di noi nell’affrontare nuovi problemi e situazioni che richiedono una analisi mirata e, oggi, chiunque lavori in un ambito che richiede comunicazione e scambio reciproco deve necessariamente imparare a fare i conti con queste importanti caratterizzazioni del sé.

A comprendere l’importanza di questo fenomeno in un contesto aziendale è stato William “Ned” Herrmann, responsabile della formazione dei manager della General Electric. Hermann sviluppò da questa esperienza il metodo HBDI o Herrmann Brain Dominance Instrument, un vero e proprio sistema metrico di valutazione volto a misurare e descrivere le preferenze di pensiero delle persone.

La letteratura riporta diversi esempi di modelli di misurazione degli stili cognitivi e dell’approccio psicologico all’apprendimento, come il Test di Luscher e  la valutazione DISC,  divenuta  celebre non solo per la sua efficacia, ma anche per essere stato ideato dal creatore di Wonder Woman, William Moulton Marston, una storia davvero singolare e avanti per la sua epoca raccontata in modo esemplare dal film Il Professor Marston e Wonder Woman.

Un numero consistente di ricerche ed autori in letteratura ha confermato che il cervello tende ad esercitare le proprie azioni cognitive in modo raggruppato, cui corrispondono altrettante attivazioni di aree cerebrali. Il metodo HBDI si basa su queste teorie della modularità delle funzioni cognitive, fondate sulle specializzazioni ben documentate della corteccia cerebrale e dei sistemi limbici, e sulle ricerca in merito alle caratteristiche funzionali dei lato destro e sinistro del cervello di Sperry, Ornstein, Mintzberg e Gazzaniga.

Il metodo Herrmann sviluppa ulteriormente queste teorie in modo da presentare, sotto forma di test, una serie di concetti rappresentati da parole-chiave, per indurre l’indivudo a riflettere sul proprio modo di pensare e di apprendere.

Essendo basato su un costrutto essenzialmente metaforico, l’approccio di Herrmann ha anche ricevuto critiche da parte di ricercatori del cervello (Terence Hines) per la eccessiva semplificazione, pur se una discreta varietà di contesti organizzativi, in particolare aziende ed istituzione governative, ne ha confermato l’applicabilità e l’efficacia.

Ciascuno di noi ha quindi una modalità caratteristica di attivazione delle funzioni cognitive che, appunto semplificando, Herrmann raggruppa in quattro aree distinte cui corrispondono altrettante caratterizzazioni o modi di pensare.

Il Pensiero Analitico: questa modalità è basata su processi mirati alla rilevazione del dato e al suo processo analitico che è tipicamente logico, fattuale, critico, tecnico e quantitativo. La modalità analitica è incentrata preferenzilmente sulla raccolta di dati, analisi, comprensione di come funzionano le cose, valutazione delle idee in base a fatti, criteri e ragionamento logico.

Il Pensiero Sequenziale: le caratteristiche di questa modalità sono il custodire, strutture, organizzare in modo complesso e/o dettagliato, in particolar modo nella pianificazione. Chi opera in questa modalità di pensiero preferisce tipicamente seguire indicazioni e piani operativi, il lavoro orientato al dettaglio, la risoluzione dei problemi passo passo, l’organizzazione e la implementazione volta alla estensione o al miglioramento.

Il Pensiero Interpersonale: è una modalità tipicamente cinestetica, emotiva, spirituale, sensoriale e basata sul sentimento. Una modalità di pensiero in cui la persona preferisce ascoltare ed esprimere idee, cercare il significato personale, l’input sensoriale e l’interazione di gruppo.

Il Pensiero Immaginativo: è il creativo, visivo, olistico, intuitivo, innovativo e concettuale. I processi cognitivi in questa modalità danno tipicamente preferenza ad osservare il quadro generale, prendere iniziative, mettere in discussione ipotesi, immagini, pensare in modo metaforico, risolvere problemi creativi, avere una visione a lungo termine.

Herrmann ha coniato il concetto di Whole Brain Thinking per sottolineare l’importanza della flessibilità che deriva dall’uso di tutti e quattro gli stili di pensiero, che non restano più prerogative immutabili, ma che possono essere coltivati e sviluppati per avere una capacità cognitiva a tutto tondo, che consenta non solo di cogliere le sfumature che altrimenti andrebbero perse adottando solamente un approccio, ma anche di dialogare e confrontarsi in modo effiace con chi adotta un approccio cognitivo diverso, quando non addirittura diametralmente opposto, al nostro.

In Italia è possibile approfondire il metodo di Herrmann con l’agile testo edito da Castelvecchi, Persone a Colori, di Paola Pirri, David Cariani e Lara Cesari, che propone Whole Brain Thinking attraverso un adattamento del questionario di self-assessment originale proposto da Hermmann, associando alle quattro tipologie di personalità quattro colori, Blu per l’Analitico, Verde per il Sequenziale, Rosso per l’Interpersonale e Giallo per l’Immaginativo.

Il libro è interessante per chi lavora in azienda o nel mondo della comunicazione perché non solo consente agevolmente di adattare il proprio stile comunicativo a seconda della attività specifica che è chiamato ad assolvere, come la motivazione, la formazione e la vendita, ma anche di individuare le proprie aree carenti proprio per svilupparle ed ampliare le proprie facoltà esperienziali e cognitive verso un modello Multicromatico, il Whole Brain Thinking originale di Herrmann. Gli autori propongono anche un capitolo dedicato alla seduzione, non nel senso classico del sentire comune, ma come processo di “condurre a sé”, ovvero di ridurre le distanze, avvicinando l’altro verso una esperienza comunicativa e cognitiva che appiani le differenze e riduca gli attriti.

Share
Pubblicato in Teoria e Pratica | Contrassegnato , , , , , , , , | Lascia un commento

La matematica del pregiudizio

Le nuove figure professionali di Data Scientist svolgono un compito particoalre: sono di fatto “addestratori” di macchine calcolatrici che “imparano”  un modello rappresentativo della realtà.

Fino ad un decennio fa, nel mondo del software prodotto industrialmente non si poteva parlare di un vero e proprio processo di apprendimento, ma di programmazione. L’ “addestratore”, in quel caso, era appunto un programmatore che istruiva il calcolatore ad eseguire una serie di compiti mediante un linguaggio formale, ben strutturato, per la definizione della catena di operazioni da far eseguire alla macchina. Il processo di esecuzione in passaggi successivi, o algoritmo, ancor oggi, è ampiamente in uso nella gran parte della produzione industriale e amatoriale di software.

L’addestramento, tuttavia, è frutto di una sequenza di operazioni radicalmente diverse: la macchina non viene programmata con istruzioni dirette, ma “impara” in autonomia osservando una grande quantità di dati.

Le operazioni eseguite dal Data Scientist non sono mirate, quindi, alla programmazione della macchina, ma alla produzione dei dati con cui questa si “autoaddestra”, alla loro pulizia ed aggregazione in modo da massimizzare l’efficienza del processo di apprendimento, alla esecuzione dell’apprendimento e, infine, alla valutazione dell’apprendimento attraverso un pool di indicatori appositamente progettato.

Torneremo in articoli successivi sul processo di addestramento e sullo standard metodologico industriale che la regolamenta, il CRIPS-DM o Cross Industry Standard Process for Data Mining, concentrandoci in questa sede su un aspetto specifico del processo di apprendimento: poiché le macchine apprendono dai dati, quindi osservando la realtà che le circonda, è possibile che sviluppino una forma “digitale” di distorsione della propria visione della realtà, in altri termini che soffrano di pregiudizio?

E se è così, è possibile misurare il pregiudizio? Esistono dei test statistici che consentono di intercettare l’insorgere del pregiudizio prima ancora che questo insorga?

Il “pregiudizio” delle macchine è un fenomeno definito in modo piuttosto esatto, matematicamente parlando, ed è una caratteristica del processo di apprendimento che il Data Scientist evita accuratamente, rilevandone addirittura in anticipo la possibile insorgenza.

In modo del tutto analogo all’apprendimento umano, il calcolatore si autoaddestra osservando un fenomeno di interesse e, contemporaneamente, altri fenomeni concomitanti. Ad esempio, supponiamo di voler intercettare un crimine prima che venga commesso, la decisione è in questo caso “binaria”, deicidiamo che l’evento in corso sarà un crimine secondo una classificazione in due stasti possibili: SI, è un crimine, NO non è un crimine.

Per prendere questa decisione dobbiamo stabilire un processo globale di rilevazione dei crimini passati e, contemporanamente, di altre caratteristiche correlate al crimine stesso, come ad esempio il luogo ove viene commesso, la nazionalità del soggetto che perpetra l’azione, il colore della pelle, aspetti comportamentali, anagrafici, sociali e così via. Tutte queste informazioni devono essere necessariamente essere rappresentabili mediante un insieme di valori definiti, come ad esempio “32” per l’età, “BIANCA” per il colore della pelle e così via.

Costruiamo quindi un insieme di fatti accaduti nel passato corredati delle variabili che svolgono il ruolo di predittori (sesso, anagrafica, etc) e della variabile obiettivo (crimine SI/NO).

Il processo di costruzione dei predittori è a sua volta piuttosto articolato, e va sotto il nome di Feature Extraction, ovvero di costruzione dei predittori e Feature Selection o di selezione di quel pool di predittori che -effettivamente- concorre con maggior probabilità determinare la variabile obiettivo.

Si conduce quindi l’addestramento su una selezione di dati opportunamente bilanciata tra crimini e non crimini, diciamo per semplicità al 50%, per poi valutare l’addestramento in base alla capacità di prevedere crimini noti ma che non sono stati utilizzati per addestrare il nostro modello predittivo. Sulle tecniche di Bilanciamento e Partizionamento dell’insieme di addestramento o Training Set, nonché su quelle di Valutazione dell’addestramento torneremo in un post successivo per non appesantire troppo la trattazione.

Tutti questi passaggi sono ovviamente cruciali per la costruzione di un processo di addestramento affidabile, ma è sicuramente fondamentale costruire un Traning Set in modo che sia rappresentativo del fenomeno che si vuole studiare.

Sarebbe bello infatti poter addestrare il nostro modello, o poter basare le nostre decisioni sulla totalità dei fatti a disposizione, sfortunatamente questo è impossibile per via della enorme quantità di informazioni che saremmo costretti ad analizzare. Immaginate, ad esempio, di volervi formare una opinione su un certo fatto di cronaca pretendendo, prima, di leggere tutti i giornali e tutti i libri sul tema.

Analoga osservazione vale per l’addestramento dei modelli: siamo costretti a ridurre il pool di informazioni su cui baseremo il nostro Training Set. Anche questo processo, detto di Campionamento, ha una definifizione matematica ed operativa rigorosa.

Quando siamo costretti a campionare siamo necessariamente forzati a scegliere un sottoinsieme di dati, correndo il rischio che questo sottoinsieme non sia sovrapponibile alla totalità dei dati a disposizione o, in altri termini, di ottenere un campione non rappresentativo.

Come facciamo a sapere quando un campione non è rappresentativo? Supponiamo di fornire al nostro modello solamente crimini commessi da persone provenienti da una certa area geografica. I dati così costruiti saranno caratterizzati da un dato di variabilità estremamente basso.

Quando una o più variabili non sono distribuite in modo analogo a quello della popolazione generale il primo effetto immediato è la diminuzione delle statistiche che indicano il grado di dispersione del campione, in altri termini bassa varianza.

Ma che succede se addestriamo il nostro modello su un insieme di dati tutto uguale, con bassa varianza? La macchina imparerà che una delle caratteristiche distintive del predittore, rispetto all’obiettivo, è preminente e produrrà quindi la convinzione che l’essere criminale sia legato alla provenienza da quella specifica area geografica. Questa convinzione è però errata, perché l’addestramento è stato condotto su un sottoinsieme di dati selezionato in modo non rappresentativo della popolazione generale, fenomeno che va sotto il nome di rumore di selezione, o Selection Bias.

Le conseguenze del Selection Bias possono essere piuttosto serie: questa immagine, tratta dallo studio Selection bias, interventions and outcomes for survivors of cardiac arrest, ne mostra un esempio lampante.

In statistica un aggregato di individui aventi caratteristiche simili, è detto coorte. Nello studio si prende una coorte (A) di individui che sono sopravvissuti ad un arresto cardiaco e, di questi, si esamina il rapporto a lungo termine tra il numero di sopravvissuti, di morti per cause non cardiovascolari e per cause cardiovascolari. La coorte viene suddivisa in due ulteriori coorti, di persone che abbiano subito un intervento (B) di cardiochirurgia per impiantare uno stent e che non hanno ricevuto l’impianto (C).

Analizzando gli esiti a lungo termine, si osserva il paradosso per cui la coorte B di individui che ha subito l’impianto di uno stent ha un rapporto tra i morti per cause cardiocircolatorie e morti per cause non cardiocircolatorie di tre volte superiore che non nella coorte C che non ha subito lo stesso intervento. Un apprendimento errato di questo schema porterebbe a pensare che l’impianto di stent aumenti il rischio di morte cardiovascolare: una conclusione  affetta da selection bias perché si basa sulla selezione preventiva di tutti gli individui morti, appunto bassa varianza sulla variabile che indica lo stato di esistenza in vita. Nella popolazione generale questo dato ha invece due stati con un rapporto ben diverso tra di loro.

Bassa varianza e alto selection bias sono fenomeni che vanno “a braccetto” e che precludono con certezza la capacità di previsione del modello, o più generalmente la sua capacità di essere utilizzato nel mondo reale. Un classificatore addestrato su dati che soffrono di selection bias non è utilizzabile sulla popolazione generale perché, tipicamente, sosterrebbe che tutti coloro che vengono da quella area geografica su cui è stata compressa la selezione dei dati di addestramento, sono criminali, tornando al nostro esempio sulla prevenzione del crimine.

I limiti di un modello addestrato in questo modo emergono immediatamente: sottoposto ad un campione generale non riesce a decidere correttamente, o perlomeno riesce a farlo solo in un numero limitato di casi (underfitting).

E’ importante notare che anche una altissima varianza e un bassissimo rumore di selezione non garantistcono che il modello funzioni bene sempre. In questo caso il classificatore che abbiamo addestrato è bravissimo a spiegare i dati di addestramento (overfitting), ma quando viene confrontato con dati reali sbaglia in modo evidente.

Il caso della bassa varianza, selection bias ed underfitting è la classica condizione assimilabile al pregiudizio umano: le convinzioni maturate non sono basate su un rilevamento del dato completo, ma polarizzato da un processo di rilevazione del dato che lo rende distorto, tutto concentrato su una caratteristica specifica.

E’ interessante notare che, in questo senso, il futuro che ci attende lascia intravedere un pericolo. Secondo recenti ricerche, pubblicate su questo stesso blog, il fenomeno del rumore di selezione o pregiudizio umano è ulteriormente rinforzato dal fatto che le persone tendono a rigettare i dati oggettivi che confutano il “pregiudizio” già formato. Viceversa, le macchine non hanno dinamiche interne che le portano a scartare informazioni utili al processo di addestramento.

Si profila, quindi, un futuro in cui le macchine saranno sempre più “intelligenti”, nel senso di saper capitalizzare al massimo la diversità del patrimonio informativo e la grande massa sempre più selettiva nello ricevere dati che confutino il proprio punto di vista.

Ma è proprio la “matematica del pregiudizio” che ci aiuta a capire quando corriamo questo rischio: quando rileviamo informazioni eccessivamente omogenee, monotematica e polarizzate su un aspetto specifico, esattamente come fa il Data Scientist con i propri modelli, dobbiamo inizare a porci qualche domanda.

E, umilmente, agire di conseguenza.

 

-> Vai agli approfondimenti sul Data Mining, Predictive Analytics e Machine Learning

-> Vai allo studio originale sullo Stent

Share
Pubblicato in Scienza oggi, Teoria e Pratica | Contrassegnato , , , , , , , , | Lascia un commento

Perché la massa rifiuta di rilevare il dato oggettivo? Lo studio di Scientific American

Uno degli aspetti più interessanti del nuovo assetto politico è l’impermeabilità della grande massa rispetto al dato reale. A dispetto delle evidenze, il dato necessario ad orientare le idee scorre via, proprio come l’acqua piovana su un indumento tecnico.

Ricerche ISTAT, rapporti del ministero degli interni e analisi internazionali, più volte pubblicate anche su questo blog, dimostrano chiaramente come l’immigrazione, clandestina o regolare che sia, e la sicurezza non sono probelmi rilevanti dal punto di vista del dato reale.

Eppure, questa informazione viene regolarmente ignorata dalla grande massa. Questo fenomeno non è solamente tipico del contesto italiano, ma si ritrova praticamente in tutti i paesi civilizzati, tanto che il mondo scientifico comincia ad analizzarlo per comprendene le radici sociali e le dinamiche alla base.

In uno studio datato 2015 e pubblicato da Scientific American nel Journal of Personality and Social Psychology, è stato analizzato  il meccanismo sociale per cui le persone rifiutano i fatti che contraddicono le proprie convinzioni. Lo studio evidenzia come questo sia un processo articolato che, di norma, si svolge in più fasi. Innanzitutto vengono contestati i dati rilevati, anche quando questi sono oggettivi e provengono da fonti attendibili o, peggio, ritenute attendibili in tutti gli altri contesti tranne quello specifico. Talvolta le persone si spingono ancora più in là e riformulano le proprie convinzioni in modo tale da renderle immuni a qualsiasi test scientifico.

A titolo di esempio lo studio riporta un dialogo sui vaccini tra gli ipotetici interlocutori A e B:

A: Uno studio scientifico ha dimostrato che i vaccini causano l’autismo.
B: Si, ma il medico è stato radiato perché lo studio non era corretto.
A: Bene, ma comunque è mio diritto come genitore decidere per i miei figli.

L’ultima asserzione di A è completamente priva di supporto scientifico, nel senso che non è provvista di alcun processo di confutazione. Questa asserzione non è scientifica perché viola il principio di falsificabilità, che dobbiamo al filosofo Karl Popper. Secondo questo principio, ritenuto il fondamento della cultura scientifica, una affermazione è supportata dalla scienza se è anche dotata di un processo di analisi che la può, eventualmente, smentire.

Esattamente quanto avviene quando si prendono posizioni completamente arbitrarie. Giusto pochi giorni fa, a cena con amici carissimi, si discuteva proprio dell’immigrazione con uno scambio del tutto analogo al precedente.

A. Gli immigrati sono troppi.
B. I dati sull’immigrazione smentiscono questa affermazione.
A. Per me sono comunque troppi.

Questo schema, secondo lo studio di Scientific American, non è affatto isolato, ma frutto di un processo decisamente caratteristico, se non un vero e proprio fenomeno transnazionale.

La analisi condotta nello studio è incentrata sugli effetti della omogenitorialità, ovvero il matrimonio di persone dello stesso sesso, sul benessere psicologico dei figli.

A 174 americani sono stati presentati, contemporanemaente, dati falsi e reali sulla analisi del benessere dei figli di coppie omogenitoriali. Sia il gruppo di persone che condivideva la omogenitorialità che quello che non la condivideva, hanno dimostrato la tendenza a rifiutare i fatti che contraddicevano la loro posizione. In particolare, entrambe le parti, hanno bollato come “non scientifici” e dovuti a preconcetto i fatti che contraddicevano il loro punto di vista e, viceversa, come scientifici quelli che lo confermavano.

Osserva Scientific American che l’esperimento ha dimostrato come in particolare non sia stata negato il dato in sé, ma la sua rilevanza.

Esperimento analogo è stato poi condotto su 117 soggetti religiosi dichiarati, cui è stato sottoposto un testo fortemente critico nei confronti della religione. Il risultato dello studio è che i soggetti maggiormente credenti hanno sollevato argomenti tipicamente correlati alla “fede cieca”, piuttosto che elementi basati su una analisi razionale quanto più il testo somministrato è stato critico nei confronti della religione. Viceversa, le argomentazioni sono state meno pregiudizievoli quando alle persone veniva sottoposto un testo dal tono più neutrale ed attenuato.

Gli esperimenti secondo Scientific American dimostrano che quando le credenze delle persone vengono minacciate, queste spostano le proprie argomentazioni su terreni che non consentono la falsificazione secondo il principio di Popper.

Ma questa “immunità ai fatti”, può essere sfruttata per polarizzare l’opinione pubblica? Cioè è possibile ottenere il consenso proprio agendo sulle credenze pregiudizievoli, piuttosto che sui fatti reali?

Scientific American ha investigato questo fronte con ulteriori esperimenti. Il primo su 103 soggetti religiosi, cui è stata somministrata l’affermazione della non verificabilità dell’esistenza di Dio. Il risultato ottenuto sembra tautologico, ma è – invece – illuminante: tanto più credenti sono le persone, tanto più hanno risposto alla affermazione della non verificabilità dell’esistenza di Dio, con affermazioni non verificabili.

Analogo esperimento è stato condotto su ulteriori 179 americani con frasi verificabili, basate su dati oggettivi, sulla efficacia della azione politica di Barack Obama. Gli oppositori hanno risposto a queste affermazioni con frasi non verificabili.

Questi esperimenti, conclude Scientific Americam, dimostrano che è possibile ottenere consenso semplicemente comunicando fatti ed informazioni in modo tale che queste non siano di fatto verificabili: tanto più “sfumati” sono i contorni delle affermazioni somministrate, tanto più le persone rinforzano le proprie credenze.

Queste evidenze dimostrano che nella psicolgia umana le credenze sono affette da distorsione cognitiva o rumore decisionale (bias) e che l’introduzione di dati oggettivi non sempre allevia questo rumore, anzi, può produrre un immediato allontanamento della controparte dai fatti oggettivi.

Una analisi che parla chiaro: occorre saper parlare alle grandi masse per limitare questo fenomeno ed usare con estrema attenzione i fatti per far si che siano il più comunicativi possibile e che vengano mediati con un linguaggio e con modalità di comunicazione adatti.

(Immagine di apertura (C) Daily Mail e degli autori in sovraimpressione)

Share
Pubblicato in Scienza oggi | Contrassegnato , , , , | Lascia un commento

Abbiamo bisogno di un nemico? La analisi di un pool di psicologi.

E’ indubbio che la strategia elettorale che ha portato all’ascesa della Lega sia vincente. Incentrata sul respingimento dei migranti perché questi rappresentano una minaccia per la sicurezza del paese. I dati su sicurezza ed immigrazione smentiscono, ma i consensi crescono. La domanda delle domande è come mai questa strategia, a dispetto della realtà dei fatti, funziona?

In queste ore ho ricevuto un interessante capitolo tratto da un libro scritto a più mani nel 1991, a cura di un pool di psicologi  Kast, Wallraff, Clauß, Cierpka e SeifertBrauchen wir Feindbilder?”. Titolo decisamente  attuale: Abbiamo bisogno di immagini del nemico ?

Il capitolo è apparso in prima edizione nel 1995, a cura della Herder di Friburgo e verrrà pubblicato ad ottobre prossimo in italiano da KoinèCentro Interdisciplinare di Psicologia e Scienze dell’Educazione all’interno di un opera più ampia della psicologa Verena Kast, con il titolo Cambiare e ritrovarsi .

Nell’edizione italiana  l’argomento dei “nemici da combattere” è solamente una parte, essendo collocato nel  tema più ampio dei cambiamenti che subiamo col passare del tempo. Noi cambiamo non solo  in termini di ‘età anagrafica, ma anche, e soprattutto, nella percezione del sé e nelle nostre dinamiche interiori. Questi cambiamenti necessitano  della accettazione di un sé in continua mutazione, anche nelle parti “oscure” che non apprezziamo, che tendiamo a rifiutare e  a proiettare all’esterno di noi, sugli estranei.

Il capitolo esplora un aspetto di questo mutamento,  esaminando dal punto di vista della psicologia clinica il processo di “creazione del nemico” attraverso meccanismi di costruzione di una immagine ostile dell’altro, o di un gruppo di altri. Un processo complesso ed articolato che trae origine  innanzitutto dal pregiudizio, cioè sul giudizio dato apriori, a prescindere dal dato reale, per poi radicarsi in forma più o meno esplicita di odio.

Secondo il testo, questo processo è sempre basato sulle differenze osservate o percepite, ad esempio l’estensione di alcuni giudizi generici sui “giovani d’oggi” a volte troppo pigri, a volte troppo scalmanati e così via in una serie di presunti eccessi. Lo stesso accade per quelli che il testo definisce “gruppi marginali” come gli zingari che “fanno quello che vogliono” e “non hanno voglia di lavorare”.

Estraneità ed ostilità sono due fattori autoalimentanti e, spesso, sconfinanti nell’odio. L’immagine del nemico e dei sentimenti ostili che proviamo verso di lui ha la caratteristica di essere “contagiosa”, ovvero che tanto maggiore è la nostra percezione deglie elementi che rendono l’altro un “nemico”, tanto più facilmente questi vengono assegnati a gruppi sempre più ampi di persone.

Nello stesso testo viene fatto l’esempio degli immigrati, visti “con belle camicie” (l’equivalente svizzero del telefonino nel nostro paese), che vengono a rubarci il lavoro. Ben presto queste motivazioni di ostilità vengono trasferite anche a gruppi differenti di persone, come accade ad esempio in Italia con i “radical chic”.

Quando proviamo un sentimento ostile, sottolineano gli autori, ne cerchiamo conferme attraverso altre persone che provano sentimenti analoghi per costruire una giustificazione alla nostra ostilità. Il punto chiave di questo comportamento è che avendo assegnato l’etichetta di “cattivo” a qualcuno, colui che prova odio si pone automaticamente nella condizione di “buono”, arrogandosi diritti che non ha, come ad esempio di emarginare i “cattivi”, privandoli dei mezzi di sostentamento o, come è accaduto in Italia con l’arresto indebito dei migranti sulla nave Diciotti.

Il testo analizza l’assegnazione dell’etichetta di “nemico” in termini proiettivi: gli autori adottano la teoria dell’ Ombra di Karl Gustav Jung, quella parte di noi stessi costituita da valori e comportamenti che rifiutiamo. Ad esempio se viviamo come negativo un certo comportamento o vizio, come ad esempio la pigrizia, troveremo il modo di proiettarlo su un elemento esterno, persona o gruppo di persone. Si badi bene, questo processo di proiezione ha come materia sentimenti e stati d’animo che vorremmo concederci di provare e che invece rifiutiamo.

Un esempio classico, riportato nel libro, è l’ostilità che gli anziani provavano verso “i giovani di oggi”, nella Svizzera dell’epoca in cui è stato scritto (1991). Questa ostilità aveva le origini proprio nella proiezione di quel sentimento di rifiuto della libertà individuale, spesso manifestata senza troppe remore, che gli anziani avrebbero voluto ma che non hanno potuto avere.

Le persone sentono la propria “Ombra”, la rifiutano e la proiettano su “altri”, che combattono proprio a causa del rifiuto dei propri meccanismi interni. E’ il processo ben noto in psicologia, detto di proiezione.

Ma perché proiettiamo? Perché la costruzione di una immagine del nemico è funzionale alla stabilizzazione dell’autostima, soprattutto quando abbiamo una percezione del nostro “noi” fragile, affermano gli autori. Quando poi è un intero popolo a non avere una buona sicurezza di sé, allora il processo di proiezione si estende alla svalutazione di forme di vita straniere e ad immagini collettive del nemico, come è il caso dei migranti in Italia. Così, mentre i dati  smentiscono l’emergenza invasione, ormai cessata da diverso tempo,   questi restano ignorati mentre il meccanismo che fomenta l’odio è sempre comunque forte.

Gli autori scrivono chiaramente che la creazione del nemico è alimentata dalla paura: per consolidare la nostra autostima ripetiamo continuamente qeusto processo di identificazione di un elemento estraneo al nostro modo di pensare e di vivere, assegnazione dell’etichetta di nemico, produzione di atti violenti e aggressivi (che siano anche solo verbali, non ne cambia la sostanza). Ma in realtà tutto questo nasce per “dissimulare i problemi”, ed è importante osservare che, allo scopo, le immagini del nemico sono sempre astratte, stereotipate e ingiuste. Ingiuste non in senso morale, ma proprio in senso tecnico: basate su conclusioni completamente arbitrarie e non supportate da fatti reali.

Pur se il testo è  del 1991, merita davvero riflessione il fatto che in Italia il meccanismo di odio generato dalla paura sia stato rinforzato proprio attraverso una campagna mediatica fondata sulla stessa paura e su atti simbolicamente aggressivi, come diverso tempo fa accadde con le ruspe di Salvini. E che, in termini di consensi, abbia funzionato. E’ un processo sapientemente sfruttato dalla Lega nell’arco del tempo: prima, quando la Lega era locale al nord, con i terroni, poi con gli zingari e i migranti. Cambia solo la scala del “nemico”, ma il processo è lo stesso.

Come tutte le situazioni complesse e foriere di scontro, è inevitabile che portino ad una risoluzione, per drammatica che sia. Uno spiraglio viene dagli autori, che sottolineano come il processo di creazione di immagini ostili sia funzionale a farci porre domande su noi stessi. Ed è proprio da qui che dobbiamo ripartire: anche questo, in definitiva, è un passaggio di crescita culturale del nostro paese.

Share
Pubblicato in Recensioni, Teoria e Pratica | Contrassegnato , , , , , , , , , , | Lascia un commento

Italiani e razzismo: una emergenza che viene da lontano

In una inchiesta de “La Stampa”, i numeri su razzismo e xenofobia dimostrano una escalation davvero preoccupante:

33 aggressioni a sospetta matrice xenofoba o razziale negli ultimi due mesi
803 reati con matrice d’odio razziale negli ultimi due anni, con un aumento del 560% dal 2009 ad oggi
73000 tweet contro i migranti nel report Vox 2018, praticamente raddoppiati dal 2016

Il quadro socio-politico in Italia mostra un evidente razzismo endemico che affonda le proprie radici in un passato neanche troppo recente. Scriveva Annamaria Rivera nel Rapporto sul Razzsimo in Italia del 2009:

“Il Rapporto più recente (6 marzo 2009) dell’Ilo, l’Agenzia per il Lavoro dell’Onu, sull’applicazione delle convenzioni e delle raccomandazioni internazionali in tema di diritti dei lavoratori, documenta e denuncia che l’Italia viola la Convenzione 143 sulla promozione della parità di opportunità e di trattamento dei lavoratori migranti, ratificata nel 1981: anche per responsabilità dei suoi leader politici i lavoratori immigrati, le minoranze e soprattutto i rom sono gravemente discriminati, in un contesto in cui anche dalle istituzioni è favorita la diffusione di forme di intolleranza, xenofobia e razzismo”.

Il ruolo dei Social Network è rilevante, sia nella diffusione che nella legittimazione del comportamento razzista, con la novità che questo si estende in forma violenta anche contro la parte civile del paese, che tenta di isolare – attraverso i cosiddetti anticorpi culturali – il comportmaneto razzista.

Il razzista, in Italia, sembra non rendersi conto di esserlo. Di norma giustifica il proprio odio razziale con una aperta lotta alla delinquenza. Il che sarebbe pure sacrosanto, salvo poi affermare – invariabilmente – che alcune etnie tendono a delinquere più di altre. Ed è proprio qui che incappa in quanto sancito come odio razziale, ai sensi della legge Mancino 205/93. In merito ci sono anche sentenze che fanno giurisprudenza, come le frasi contro i Rom da parte del sindaco Formaggio di Vicenza, il quale affermò che “I nomadi delinquono, ce l’hanno nel Dna”.

Gli italiani razzisti hanno una caratteristica in comune abbastanza frequente: non vogliono sentirselo dire. Anzi, si offendono pure e rispondo con offese a quella che loro, appunto, reputano una offesa. Eppure “razzista” non è una offesa, ma una rilevazione comportamentale ai sensi del codice penale. E’ importante comprendere che quando si afferma, o peggio si scrive sui social un post che stigmatizza gli zingari o le minoranze, questo post è razzista nel senso proprio del termine. Il punto chiave è che molti italiani vogliono poter esercitare atti di razzismo senza assumersene la responsabilità.

Per fortuna che esiste una società civile che fa scattare i cosiddetti “anticorpi”. Ma quando ciò accade, la risposta di quella parte del paese che mette in atto comportamenti razzisti è preoccupante, perché dimostra una immediata deriva violenta.

La vicenda di Raffaele Ariano, il ragazzo che ha denunciato l’episodio di razzismo sulla tratta Milano-Mantova di Trenord è emblematica: solo nelle prime ore dopo la sua
denuncia, ha ricevuto sul suo profilo Facebook oltre 33.000 commenti di matrice razzista e xenofoba, caratterizzata da una violenza verbale incredibile.

Violenza del linguaggio che è segno molto preoccupante e che si rivolge anche contro alla parte sana del paese, che tenta di isolare questi comportamenti, Così come i nazisti chiamavano “pietisti” coloro che difendevano gli ebrei, gli epiteti si sprecano: “buonisti”, “radical chic” conditi da ingiurie variegate. È il guaio è che chi cade in questo linguaggio non si rende conto che costituisce forma di odio evidente.

Comportamenti ampiamente illegali, in aperta violazione dell’Art. 595 del Codice Penale:

“La diffamazione è l’offesa nei confronti della reputazione altrui commessa comunicando con altre persone, che devono essere almeno due o più di due. In questo caso di solito la vittima non è presente.
(…). Se la diffamazione avviene a mezzo internet, come nel caso di un post offensivo su Facebook o una notizia veicolata su un sito, si ha un’aggravante (…)”

Ma, al di là degli aspetti di legge, il vero punto è proprio l’odio: gli italiani sono in prima linea in quanto ad odio online e, in generale, basato su valori come intolleranza e razzismo, un fenomeno che diverse università stanno studiando il fenomeno da tempo (vedi il Rapporto Vox a fine articolo).

Il dato più interesssante è che, contemporaneamente, gli sono primi per “indice di ignoranza” cioè gli italiani sono i primi in Europa in quanto a percezione distorta del reale, sovrastimando immigrazione e criminalità. Questo dato è confermato da diversi studi, tra cui citiamo il Progetto Noi ISTAT, che dimostra in modo impietoso come i fenomeni radicati nella pancia del paese, tra cui proprio il razzismo nei confronti degli extracomunitari, siano alimentati da falsa informazione: si scopre, infatti, che la tanto temuta invasione di extracomunitari è un fenomeno inesistente, così come inesistente è l’emergenza sicurezza.

Il risultato netto è una radicalizzazione dei comportamenti di autolegittimazione, come ad esempio la giustificazione di essere razzisti perché si è “provocati”, o come molti affermano di essere vittima di un “razzismo al contrario” contro gli italiani.

L’italiano razzista si autogiustifica dicendo che “urlare al razzismo“ è razzismo, ignorando che l’odio razziale ha una definizione esatta ai sensi di legge, e questo è e deve essere un punto fermo.

Secondo il razzista chi difende le minoranze etniche, difende anche l’illegalità. È una distorsione molto povera che sembra non comprendere un fatto basilare: la delinquenza va condannata sempre, tuttavia usare la delinquenza per affermare che “gli zingari rubano” è odio razziale, ai sensi di legge. Insomma, in assenza di razzismo l’etnia non viene citata. Un fatto basilare che non riesce a penetrare nel tessuto sociale.

Il razzista non solo si offende, ma diventa pure violento e non sempre a parole, come le cronache hanno ampiamente dimostrato. Cosa fare? Di certo occorre una “contronarrazione”, ovvero un processo attivo di divulgazione degli elementi culturali, e di legge, di contrasto a questi comportamenti.

A questo proposito, fanno riflettere le parole di Annamaria Rivera, ricordiamolo risalenti al 2009:

“Si è prodotto, in Italia, un circolo vizioso preoccupante fra il discorso e l’azione dei governi e di alcuni partiti politici, l’opera di riproduzione di cliché, stereotipi e pregiudizi svolta dal sistema mediatico, la diffusione di forme di xenofobia popolare, spinte fino alla spedizione punitiva e al pogrom, all’omicidio e alla strage razzista. In certi quartieri popolari metropolitani sono ormai quotidiane le aggressioni fisiche indiscriminate contro migranti, rom, cittadini italiani di pelle più o meno scura, spesso prive di ogni movente o pretesto che non siano riconducibili al razzismo”.

E’ innegabile che vi sia una corresponsabilità evidente tra il pensiero e l’azione di governo, sempre attenta a stare entro il filo di un comportamento ai sensi di legge, e le derive comportamentale apertamente xenofobe e razziste che poi si manifestano nella vita quotidiana, come testimoniato dalla cronaca e dai numeri.

-> Vai al Rapporto Vox 2018
-> Vai al Rapporto sul Razzsimo in Italia (2009)
-> Vai al progetto Noi Istat

Share
Pubblicato in Teoria e Pratica | Contrassegnato , , , | Lascia un commento