DALLA TEORIA ALLA PRASSI: IL DISEGNO SPERIMENTALE TRA EPISTEMOLOGIA E TECNICA

Per comprendere il senso del metodo sperimentale non è necessario possedere particolari qualità, se non quella massima, di enorme valore, che caratterizza l'essere umano sin dall'alba dei tempi: la curiosità. L'essere umano è curioso, come molti suoi cugini primati, e in quanto curioso ama sia interrogarsi sui grandi perché del mondo che mettere mano nelle cose, per smontarle e vedere come sono fatte dentro

Proprio su questa base sembrano potersi distinguere due tipi umani, ugualmente curiosi ma diversamente inclini a usare l'intelletto piuttosto che le mani: da un lato gli speculativi, che attraverso la sola riflessione riescono a trarre conclusioni vere - o accettabili - sul mondo e sugli stati di cose, che costruiscono castelli in aria tanto solidissimi quanto irriconoscibili ai più nella forma e nei simboli; appartengono a questo gruppo i filosofi, per esempio, che guardano ai fatti e agli eventi alla ricerca di conferme dei grandi sistemi di pensiero costruiti, o i matematici, che sono veri e propri architetti del pensiero, poiché partono dagli architravi degli assiomi per poi procedere a definire gli aspetti sufficienti delle strutture teoriche. La grammatica del loro ragionamento è descritta da Cartesio nelle quattro tappe che definiscono il suo Metodo: avere le idee chiare sulla composizione del problema, scomporlo il più possibile, ricomporlo e infine enumerare i risultati.

Dall'altra parte troviamo invece gli empirici, scettici per natura, pieni di dubbi a meno che non si tratti di ciò che vedono con i propri occhi e sentono con le proprie orecchie. Non trovano che l'astrazione possa portare a niente di veritiero, se non a verità apodittiche, autovalidate, ma ciò che costituisce la prova inconfutabile della verità di una teoria è che i fatti in essa raccontati effettivamente si verifichino.

Bisogna però operare un distinguo tra gli empirici, perché tra questi si possono ravvisare almeno due posizioni assai differenti tra loro. Gli ultimi ad aver avanzato, negli anni '60 più o meno, una definizione del proprio modo di intendere il problema del rapporto con l'esperienza sono stati quanti afferiscono alle metodologie Grounded e osservative, identificate come qualitative in quanto parziali e incapaci di elevarsi a teoria in modo sistematico e generalizzato. Prima di loro, molto prima, si sono invece distinti gli empiristi propriamente detti, che è vero che hanno fondato il valore delle asserzioni teoriche sui fatti così come venivano esperiti dai sensi, ma si sono comunque fatti aiutare nel trarre le proprie conclusioni da un percorso articolato anch'esso in quattro tappe, il Metodo Galileiano, che si è affermato nel tempo come Metodo Sperimentale tout court. Le fasi di suddetto metodo configurano un processo che connette i fatti alla logica e viceversa, al fine di trovare ciò che, con la sola osservazione o il solo riflettere, non è possibile scovare: il nesso causa-effetto tra due fatti, di cui uno sia conseguenza dell'altro. 



Si comincia con una domanda, con l'osservazione della realtà ad opera dello sguardo curioso e indagatore umano; l'interrogativo che ne scaturisce viene poi imbrigliato nel rigido linguaggio dell'ipotesi, che consiste in un'affermazione di tipo condizionale sul verificarsi di due eventi delle quali una funga da premessa e l'altra da conclusione. Questo passaggio pone le basi per il successivo, la sperimentazione, che consiste nel mettere le mani sugli eventi che fanno da premessa per registrare cosa succede a quelli posti come conclusione; ci si avvia così all'ultima fase, che consiste nella teorizzazione, ossia nell'estinzione dell'ipoteca sull'affermazione iniziale che viene così validata (o invalidata, nel caso in cui non si riveli corretta). 

L'osservazione è il momento buono per delineare la domanda di ricerca, che può solitamente esprimersi in modo generico, con un linguaggio esperto ma non necessariamente tecnico. È importante durante l'osservazione dare forma e parole alla propria alla propria curiosità, affinché l'irrequietezza possa essere incanalata in un corso eventi in grado di corrisponderle con una soluzione. Già a questo livello ci si può rendere conto del fatto che il proprio quesito non è interessante né importante come si credeva in un primo momento o, viceversa, si capisce di aver intuito qualcosa che, se confermato, è una bomba. Quasi sempre i ricercatori, mossi da passione, ricadono nel secondo scenario. 

Dopo aver delineato il problema, ci si occupa della ritrascrizione in ipotesi, ossia della sua traduzione in termini logici. Si tratta del primo passaggio dal piano del sistema relazionale empirico a quello logico-numerico, che richiede l'adozione di un diverso sistema di regole di ragionamento e un diverso linguaggio rispetto a quelli comuni: le caratteristiche dei fatti diventano le variabili, il fenomeno o il problema un modello. Un'ipotesi può avere un fine descrittivo, quando cerca di rendere conto delle caratteristiche superficiali del fenomeno senza scendere nei dettagli della natura delle relazioni strutturali tra i fatti, un fine esplicativo, quando si offrono insight sulle relazioni, e predittivo, quando si ricostruisce uno scenario del tipo causa-effetto, con la prima che predice il secondo. Questi tre tipi di ipotesi differenziano tre tipi di ricerca.

Per quanto riguarda le relazioni tra variabili, queste possono essere profilate a partire dai connettivi logici AND e IF_THEN: nel primo caso le caratteristiche in esame si assume varino in modo concomitante, mentre nel secondo la prima si trova a essere condizione (premessa) per la seconda. È su questa base che si può distinguere la ricerca correlazionale, che ricostruisce e giustifica la tendenza di due variabili a muoversi dall'asse della media in maniera similare, da quella sperimentale, che invece sovraimpone (se seguiamo la concezione di Hume secondo cui cause ed effetti sono categorie del pensiero, ma non della realtà)  o fa emergere (se seguiamo l'idea che cause ed effetti siano intrinseci alla struttura dei fenomeni á la Michotte) una relazione strutturale. 

La fase di definizione delle variabili consta di un passaggio metodologico importante: l'operazionalizzazione. L'operazionalizzazione consiste in pratica nella creazione di un ponte pratico tra il piano empirico e quello teorico, facendo sì che la caratteristica di cui ci stiamo occupando sia misurabile. L'operazione di misurazione rientra perfettamente nella costituzione dei problemi generali dell'aderenza tra fatti e modelli, per la definizione stessa di Sistema di Misurazione nei termini di una terna composta da un Sistema Relazionale Empirico, un Sistema Relazionale Numerico e una regola di corrispondenza. 

Collochiamo a questo livello anche i problemi della scelta della scala di misura, del piano di campionamento e della definizione del Disegno Sperimentale, qualora si tratti di una ricerca di laboratorio, o della definizione del questionario, qualora si tratti di un'indagine correlazionale. È opportuno avere le idee chiare sul tipo di ricerca che si desidera portare avanti prima di passare alla raccolta dei dati e all'elaborazione, per la ragione che un processo così lineare nella logica che lo sorregge (ma estremamente caotico nella pratica che lo realizza) tenderà a creare accumuli di errori e sviste laddove queste non vengano risolte in anticipo. L'impianto del metodo scientifico deve pertanto essere concepito come un'euristica, uno strumento di governo, e non come un tracciato da seguire pedissequamente: tornarci, nei passaggi cruciali del processo, è utile per non perdere la rotta.

Per quanto concerne la scelta della scala di misura, si tratta di far coincidere alla caratteristiche del fenomeno prese in esame le proprietà dei numeri, in modo tale che queste vengano a costituire uno strumento buono di rappresentazione. A un primo livello i numeri sono uguali o diversi tra loro, e questo ci consente di utilizzarli per rappresentare alcune declinazioni del carattere in esame, ossia alcune modalità della variabile, che non posseggano alcuna relazione quantitativa; si parla in questo caso di scala nominale, e viene applicata alle variabili qualitative quali il genere o la città di provenienza. 

A un secondo livello due numeri possono essere uguali fra loro o, se diversi, di uno si può dire essere maggiore o minore dell'altro. Le modalità della variabile possono dunque essere disposte lungo una serie ordinata, ma senza che vi sia traccia alcuna dell'informazione sulla distanza tra i punti della serie: ad esempio possiamo dire che tre persone sono arrivate prima, seconda e quarta in una graduatoria di intelligenza, anche senza sapere quale punteggio abbia conseguito ciascun soggetto. È il caso questo della scala ordinale, di cui un esempio può essere una graduatoria espressa in percentili: il Mensa, associazione di cervelloni, accetta iscrizioni di persone a partire dal 98' percentile in poi, ciò significa che non è noto il punteggio che ciascuno ha conseguito al test di intelligenza svolto per entrare, ma solo che si è al di sopra di una certa posizione in classifica.

Quando di due numeri si può dire se siano uguali o diversi, maggiori o minori e quando la distanza tra essi sia nota allora parliamo di scala a intervalli. A differenza che nella scala ordinale, con i punti di una variabile cardinale è possibile fare passaggi di trasformazione quali somme o sottrazioni senza che tale slittamento provochi alcunché di rilevante. La maggior parte delle misure psicologiche provenienti da test si colloca a questo livello di misurazione, come vedremo tra poco

L'ultima relazione che i numeri esprimono e che può essere importata nella rappresentazione della (caratteristica della) realtà che stiamo esaminando è la distanza dallo zero. Non è banale immaginare lo zero di una scala di misurazione, perché significa ammettere che esista un valore nullo della grandezza considerata. Se pensiamo a misure classiche in Psicologia, come ansia o intelligenza, notiamo che di queste non è possibile identificare un punto zero assoluto: non esiste e comunque non ha senso sul piano concettuale l'assenza totale di intelligenza, così come l'assenza totale di ansia. Si tratta quindi di misure che vanno bene finché ci si trova all'interno di soglie, ma che sballano quando si scivola sui valori estremi. 

Raccolti i dati, li si può sistemare all'interno di una matrice, cioè di una tabella in cui, solitamente, per ciascun soggetto le misure sono collocate in riga; diciamo pure che ogni roga è il dossier di misurazione per quel particolare soggetto. In colonna vengono così a trovarsi accostati la lista di soggetti e le variabili misurate, una per ciascuna colonna. Questo modo di rappresentare le cose (rappresentazione matriciale, o tabulare) ci aiuta a visualizzare in modo chiaro cosa è concretamente una variabile: un insieme di misurazioni diverse condotte sulla medesima grandezza, in un modo che riduca al massimo - laddove possibile - le imprecisioni; il nome "variabile" sta proprio a indicare il fatto che i risultati delle singole misurazioni (o degli eventi-misurazione, sarebbe più giusto dire) sono diversi tra loro, anche se alcuni risultati possono assomigliarsi o coincidere. 

Oltre alla rappresentaIone tabulare che vede in colonna i Soggetti e in riga le Variabili (detto dataset o serie di dati), esiste la possibilità di rappresentare le variabili tabularmente avendo in colonna una Variabile alla volta e in riga la Frequenza: in tal caso si conteggia per le misurazioni (ordinate in modo crescente) il numero di volte in cui il valore occorre nel dataset, ottenendo così una nuova matrice detta distribuzione di frequenza.  Le differenze nella rappresentazione dei dati possono comunque andare oltre, nel senso che si può rappresentare le variabili anche graficamente e tramite diagrammi di Eulero-Venn. 

La rappresentazione grafica segue gli stessi criteri della rappresentazione tabulare, abbiamo cioè sia un grafico Soggetti x Variabili (dove ciò che sta in prima colonna  di solito viene riportato sull'asse delle ascisse) e uno Variabili x Frequenze (vale lo stesso principio appena enunciato). Siamo però ancora fermi a una descrizione bruta, nel senso che, a parte qualche constatazione sulla forma delle due distribuzioni, è difficile fare paragoni tra le diverse variabili a questo livello: c'è bisogno di passare a un livello di descrizione più sintetico, più puntuale. È per questo che si utilizzano, per mettere a confronto tra loro le Variabili, gli Indici di Tendenza Centrale e gli Indici di Dispersione

Gli Indici di Tendenza Centrale più noti sono Moda, Mediana e Media, definiti come segue:
- la Moda è il valore con la frequenza maggiore, ossia coincide con il picco più alto in un grafico Variabile x Frequenza;
- la Mediana è il valore che sta nel punto che divide a metà l'area sotto la curva definita da una distribuzione di frequenza;
- la Media è il valore su cui si appiattisce la curva di un grafico Soggetti x Variabili, trasformandola in un rettangolo uniforme su ciascun soggetto; in una distribuzione di frequenza, invece, è una linea parallela a y.

Il poeta Trilussa diceva che la Statistica è quella scienza che fa sì che, se tra due persone una ha due polli e l'altra nessuno, fa sì che entrambi ne abbiano uno; Bukowski invece diceva di non fidarsi della Statistica, perché stando a questa un uomo con la testa nel forno e i piedi nel frigorifero ha una temperatura media corporea accettabile.  Le due obiezioni, per quanto simpatiche, non tengono in realtà in conto il fatto che una media ha senso se calcolata su grandi numeri. Poiché infatti non basta rappresentare le distribuzioni tenendo conto solo del valore centrale, si fa ricorso anche a indici che diano informazioni sulla tendenza della variabile a variare, che significa in termini statistici ad allontanarsi dalla media; i più utilizzati sono:
- il Range, che descrive il percorso tra il valore massimo e quello minimo;
- la Differenza Interquartilica, ossia la distanza tra il valore corrispondente al 25% dei casi e al 75%;
- la Varianza, ossia la media del quadrato di tutte le differenze dalla media;
- la Deviazione Standard, che coincide matematicamente con la radice quadrata della Varianza.  
Nel caso dei polli di Trilussa e della temperatura di Bukowski, dunque, la media risulterà magari ingiusta, ma la varianza massima.

Infine, rimanendo nell'ambito della descrizione, è importante studiare la forma della distribuzione, che si rende evidente nella rappresentazione grafica Variabili x Frequenze: in particolare è interessante vedere se la distribuzione è assimilabile a una distribuzione teorica nota; in particolare la forma gaussiana è la più utilizzata nelle Scienze Sociali, perché frequentemente riscontrata nell'andamento di variabili sociologiche e psicologiche (sembra naturale la tendenza degli umani ad addensarsi attorno a valori centrali), e perché in grado di transitarci verso un livello di elaborazione successivo, che ci permette di passare dalla descrizione di ciò che avviene in un campione alla popolazione. Tra le cose che possono essere comprese per via inferenziale ci sono:
- la relazione tra due variabili;
- la differenza tra la media di due campioni o di due misure;
- la trasformazione di un punteggio da una scala all'altra. 

L'An.O.Va. (Analysis of Variance) è un metodo di analisi statistica che consente di riprodurre la stessa struttura di ragionamento che appartiene alla logica sperimentale. Questa si configura in buona sostanza come la messa alla prova di un'affermazione di tipo vero-condizionale, composta da un'antecedente e un conseguente. Sia che si tratti di due variabili, di due eventi o di due lettere dal significato astratto, il ragionamento rimane lo stesso: la condizione necessaria affinché l'affermazione possa essere presa per buona è che superi la prova della verifica e quella della falsificazione.  



Supponiamo di prendere 4 carte, ciascuna con una lettera su un lato e un numero sull'altro, e di dover verificare la seguente affermazione: "Se su un lato c'è una vocale, sull'altro c'è un numero dispari", ossia un tipico condizionale semplice che può essere rappresentato schematicamente come "se p allora q". Si dispongano su un tavolo le carte, immaginando che rivelino le seguenti facce: E, K, 4 e 7; quali carte è necessario voltare per poter dire che effettivamente è vero, che se su un lato c'è una vocale sull'altro c'è un numero dispari? In una ricerca ormai divenuta un classico della psicologia cognitiva Wason mostra che la maggior parte delle persone sceglie E e 7, ossia opta per una strategia verificatoria. Per poter mettere davvero alla prova la tenuta dell'ipotesi, però, bisogna considerare la struttura logica del problema, e da questa far discendere la scelta delle giuste opzioni.

Un condizionale semplice risulta essere vero tre volte su quattro, anche se dire "vero" e dire "sensato" non sono qui sinonimi: infatti, la verifica avviene sia quando premessa e conclusione sono vere che quando sono entrambe false (ossia il fatto che si lavori sull'ipotesi o al di fuori di essa è irrilevante), ma anche quando la conclusione si verifica in assenza della premessa l'ipotesi tiene. In conclusione, il solo caso in cui possiamo dire che l'ipotesi sia falsa è quello in cui si verifica la premessa ma non la conclusione: e questo è molto vero ma poco sensato, poiché difficilmente comprensibile. 

Tutto questo comporta non pochi imbarazzi a chiunque voglia descrivere deterministicamente il mondo, poiché in ogni caso potrà con certezza dire solo ciò che non è, mentre su ciò che è le affermazioni saranno sempre di natura probabilistica. Ecco che quindi la Statistica, l'arte del risolvere matematicamente problemi pratici di ricerca, viene in soccorso con un metodo, un test che consente di identificare le fonti di variazione delle caratteristiche studiate. 

L'An.O.Va è lo studio della composizione della varianza della variabile dipendente, isolando a livello di calcolo quella parte che può essere attribuita alla sua naturale e spontanea distribuzione da quella parte che può essere invece spiegata dalla presenza di un'altra variabile, che si trova a essere rispetto a questa indipendente. Il ragionamento sottostante è il seguente: dal momento che ci aspettiamo che in un'ipotesi di relazione tra due variabili la varianza dovuta alla fonte di variazione esterna sia da considerarsi più grande di quella attribuibile alla variabile in sé, se isoliamo matematicamente le due porzioni sarà sufficiente confrontarle per valutare il relativo contributo alla varianza totale.

Allo stesso tempo, dal momento che non siamo nel campo della mera descrizione, ma dell'inferenza statistica, bisogna tenere in considerazione la significatività delle conclusioni cui si approda: posto che la varianza dovuta all'influenza della variabile indipendente si rivela maggiore della varianza in sé, quanto è probabile che le cose stiano effettivamente così e che non si sia giunti a questa conclusione per caso? Per quesiti come questo si ricorre a indici che posseggono una distribuzione nota, costruita per astrazione matematica, detti statistica-test, e in questo caso è la F di Fisher. Se il coefficiente è associato a una probabilità al di sotto della soglia convenzionalmente stabilita per la significatività (α= .05, se non addirittura α= .01 quando si adotti un'ottica conservativa) si può concludere che il risultato sia giunto per caso, e che quindi vale l'ipotesi nulla sull'assenza di relazione tra variabili. Nel caso invece in cui il valore di F risulti maggiore a quello stabilito come soglia, entriamo nel terreno della rarità, e proprio qui troviamo che il modo in cui la variabile dipendente si configura è effettivamente condizionato dalla variabile indipendente.  

Consideriamo un esempio, preso da un lavoro di ricerca che sto ho svolto con Emma Brambilla sulla dislessia. La domanda di ricerca da cui siamo partiti nasceva da una riflessione sulla dislessia e dall'idea che questa viene considerata quasi sempre un disturbo inerente il soggetto e il suo modo di aggregare dati. Allo stesso tempo esistono tentativi di allestire modifiche negli stimoli visivi stessi al fine di consentire una migliore organizzazione di questi e quindi una percezione più agevole del testo scritto; font come Dyslexie e Easy Reading nascono da una riflessione che riguarda le difficoltà dei dislessici e cercano di attuare correttivi quali l'adozione di asticelle marcate, tratti che contraddistinguano gli occhielli delle o e delle a eccetera. Io ed Emma Brambilla abbiamo invece iniziato collocando il problema interamente nell'ambiente, e non nella persona, e da lì siamo passati a ricostruire lo scenario delle persone dislessiche limitatamente all'esperienza di lettura. 

Ci siamo resi conto, dandoci compiti inusuali quali leggere molto velocemente, leggere e comprendere il più possibile al volo, leggere molto lentamente, che incontravamo alcune delle difficoltà che i dislessici raccontano: inversioni, sostituzioni, incomprensioni. Da lì è nata l'idea di lavorare sullo stimolo, per dimostrare che le difficoltà che i dislessici incontrano dipendono in larga misura dalla somiglianza estrema di alcune lettere dell'alfabeto latino da un lato, e dai valori che consideriamo accettabili nella lettura per quanto concerne soprattutto il parametro della velocità dall'altro.  

Abbiamo così sintetizzato la domanda nel linguaggio schematico e preciso dell'ipotesi: 
se la somiglianza tra le lettere viene ridotta allora velocità e accuratezza nella lettura incrementano, sia nei soggetti dislessici che non dislessici; poiché però nei soggetti dislessici il punto di partenza è svantaggiato, il recupero da parte loro sarà maggiore e le due performance di lettura (quelle di dislessici e non) verranno ad assomigliarsi. Tuttavia è divenuto quasi subito chiaro che, dovendo la ricerca sperimentale servirsi di contesti controllati, il campione ideale sarebbe stato costituito da bambini, in quanto un campione di adulti avrebbe potuto ricevere un maggior numero di  influenze estranee a quella principale.

Abbiamo quindi predisposto del materiale per effettuare la prova sperimentale, consistente in brani di lettura suddivisi per 5 classi della Scuola Primaria in base alla lunghezza e difficoltà, ognuno nelle due versioni: con carattere ad alta differenziazione delle lettere e con carattere consueto. Sull'operazionalizzazione delle variabili non è stato necessario fare un grande ragionamento, poiché l'impostazione del problema e la sua formalizzazione in ipotesi già erano suggestivi del modo in cui sarebbero state trattate: avremmo avuto una Scala Nominale per la variabile Differenziazione delle Lettere e due Scale a Rapporti per Velocità ed Errori. 

Siamo poi passati alla raccolta dei dati, facendo attenzione che vi fossero pochissime interferenze esterne e che, se anche in alcuni casi ci fossero state (ad es. interruzioni da parte delle bidelle, suoni della campanella), non fossero sistematiche: la mancanza di sistematicità è ciò che, infatti, distingue una variabile estranea da un semplice rumore di fondo. La distribuzione risultante assomigliava alla Normale, a significare che i bambini tendono ad assomigliarsi nel produrre performance di lettura medie per quanto riguarda velocità e accuratezza, mentre inizia a esserci una rarefazione progressiva quando ci si allontana dalla media. 

I valori medi di velocità e accuratezza, ovviamente, tendevano ad aumentare man mano che si andava avanti con l'età; tuttavia anche la Varianza tendeva a essere maggiore per i bimbetti più piccoli che in quelli più grandi. 

Nell'effettuare l'An.O.Va. ci siamo avvalsi dell'ausilio di un computer, cosa che rende invisibili tutti i passaggi logici; tuttavia possiamo dire che logica sperimentale e tecnica di analisi sono venute a coincidere, dal momento che la struttura logica delle ipotesi era la seguente: 
differenziazione velocità e accuratezza se differenziazione allora velocità e accuratezza
V V
V F 
Questo significa che, come nel problema delle 4 carte, per poter affermare che l'ipotesi sia accettabile dobbiamo controllare che:
se la somiglianza tra le lettere è ridotta allora la velocità e accuratezza nella lettura incrementano;
velocità e accuratezza nella lettura basse si hanno in corrispondenza di somiglianza tra le lettere elevata. 

Nella fase cosiddetta di sperimentazione, si procede alla raccolta dei dati necessari a ricreare un Ground informativo tale da allocare la probabilità e l'improbabilità su ipotesi nulla e ipotesi alternativa, orientando in questo modo la scelta. 

Popular Posts