CyberCultura

RSS logo

Aiuta PeaceLink

Sostieni la telematica per la pace:

  • Donazione online con PayPal
  • C.C.P. 13403746 intestato ad Associazione PeaceLink, C.P. 2009, 74100 Taranto
  • Conto Corrente Bancario c/o Banca Popolare Etica, intestato ad Associazione PeaceLink - IBAN: IT65 A050 1804 0000 0001 1154 580
Motore di ricerca in

PeaceLink News

...

Articoli correlati

Il gioco della cooperazione

Come ha fatto l'Università di Southampton a piazzare tre squadre ai primi tre posti del torneo dedicato ai 20 anni del «Dilemma del prigioniero»? Con un «trucco» lecito: una forma di collusione che ha enfatizzato l'appartenenza al gruppo. E il gioco di squadra fa vincere
17 ottobre 2004 - Franco Carlini
Fonte: Il Manifesto

Ha compiuto vent'anni il Dilemma del Prigioniero e nell'occasione si è svolto un nuovo torneo tra diverse strategie per risolverlo. Ai primi tre posti si è piazzata l'università inglese di Southampton che ha da tempo aperto un intero filone di ricerca a questo tema che è tutto fuorché frivolo. In esso due soggetti si trovano di fronte a una scelta ambigua: devono cercare di ottenere per sé il migliore dei risultati (essere assolti o scontare una pena minima), ma l'esito della prova dipende anche dalla scelta che l'altro farà, la quale non è prevedibile perché i due complici non possono accordarsi., E d'altra parte anche se lo facessero, come essere sicuri che il partner terrà fede al patto stipulato? In tutte le varianti del gioco la scelta è tra cooperare con l'altro o defezionare (tradire), perseguendo il proprio interesse egoistico, a breve. La soluzione egoista è vincente se si gioca una sola volta, ma le cose cambiano vistosamente se il gioco viene ripetuto più e più volte. In questo caso ognuno dei due può imparare qualcosa dal comportamento dell'altro e affinare la propria strategia. In questa versione gli studiosi parlano di «Dilemma del Prigioniero iterato», cioè giocato più e più volte. Venti anni fa Robert Axelrod, matematico e studioso del pensiero politico, attualmente all'università del Michigan, pubblicò un famoso saggio, dal titolo «L'Evoluzione della cooperazione« (in italiano «Giochi di reciprocità: l'insorgenza della cooperazione«, Feltrinelli 1985). In esso riferiva di una serie di prove da lui realizzate lanciando una gara tra diverse strategie del famoso dilemma. Ognuna di loro fu trasformata in un programma di computer e i diversi programmi vennero fatti gareggiare tra di loro per vedere se ne emergeva uno che alla lunga dava dei risultati migliori.

Con una certa sorpresa dei ricercatori si scoprì che la migliore strategia possibile nel lungo termine era quella simpaticamente chiamata «Tit for Tat» (che in italiano si potrebbe rendere come «Colpo su Colpo»), la quale è assai semplice: ogni soggetto comincia il suo gioco cooperando, ma se l'altro defeziona, allora al passo successivo defeziona anche lui, ma poi riprende a cooperare. In altre parole non accetta di essere «messo sotto» e perciò risponde colpo su colpo al tradimento, ma poi ripristina un atteggiamento cooperativo che manterrà fino a prova contraria.

La conclusione di Axelrod (che qui abbiamo descritto in termini molto semplificati) era in sostanza questa: (1) ai fini del buon funzionamento generale del sistema e anche ai fini dell'interesse dei singoli individui, un atteggiamento di cooperazione è più conveniente di uno basato sull'egoismo stretto e a breve termine. (2) la cooperazione «emerge» per effetto di un processo di apprendimento ripetuto nel tempo, per evoluzione; non c'è bisogno a questo fine di ipotizzare valore sociali o culturali che la favoriscono - questo almeno nel mondo dei computer e dei cosiddetti «agenti software».

Da allora le ricerche sono proseguite: sono state studiate molte altre strategie e l'intero campo si presenta ormai come un interessante intreccio tra matematica, psicologia, economia, scienze sociali. Ovviamente questi modelli e i relativi software sono interessanti soprattutto se ci dicono qualcosa riguardo ai comportamenti sociali umani e a quel grande mistero rappresentato dai atteggiamenti altruistici della nostra specie.

Come ha fatto l'università di Southampton ha vincere il torneo piazzando tre suoi programmi ai primi tre posti? Ce l'ha fatta, spiega Nick Jennings, introducendo un comportamento di gruppo nei 60 programmi che aveva iscritto alla gara: tutti erano delle varianti di una stessa strategia, ma usavano un «trucco»; in pratica erano programmati per eseguire un certo numero di mosse fisse che i loro colleghi riconoscevano come una firma di appartenenza al gruppo. Quando ciò avveniva, ovvero quando due software si riconoscevano come appartenenti al gruppo, uno dei due si sacrificava a vantaggio dell'altro e dunque non ci si deve stupire se assieme ai tre vincitori, in fondo alla classifica del torneo figurano anche diversi software di Southampton che hanno concluso il torneo con punteggi bassissimi.

In questo modo i software hanno in qualche modo simulato una delle modalità dell'altruismo che gli studenti hanno già riconosciuto nel mondo animale, quello tra appartenenti alla stessa specie o addirittura allo stesso gruppo famigliare. La vittoria di Southampton è stata lecita perché nel regolamento del torneo non era vietata tale forma di collusione tra diversi software e in ogni caso il professor Jennings ne trae una lezione più generale: il gioco di squadra è decisivo per vincere e non è nemmeno necessario che la squadra sia troppo grande (Southampton ha impiegato 60 «agenti» software, ma retrospettivamente avrebbe vinto anche con 20 soltanto). Quello che conta è il coordinamento e questa è una indicazione importante per ogni organizzazione, che si tratti di un'azienda o di un partito politico.

PeaceLink C.P. 2009 - 74100 Taranto (Italy) - CCP 13403746 - Sito realizzato con PhPeace 2.5.8 - Informativa sulla Privacy - Informativa sui cookies - Diritto di replica - Posta elettronica certificata (PEC)