Skip to main content

Intelligenza artificiale e mediazione: siamo disposti a fidarci a meno che non si metta male.

Come i robot potranno aiutarci nella soluzione delle controversie

L’evoluzione della tecnologia ha portato la comunità scientifica mondiale a chiedersi se l’intelligenza artificiale sarà in grado di sostituire gli umani in compiti complessi come la risoluzione delle controversie. I robot umanoidi possono creare il necessario livello di fiducia per risolvere un problema o comunicare informazioni spinose?

schermo corso ECM FAD

La mediazione umana non é facilmente replicabile.

La mediazione è definita come un processo non vincolante attraverso il quale le parti coinvolte risolvono il conflitto con l’aiuto di una terza parte neutrale definita meditatore. In questo processo è importante arrivare ad una soluzione di tipo “win-win” dove entrambe le parti possono sentirsi soddisfatte. Per Riskin et al. (2009) “la mediazione è negoziazione facilitata”.

E’ improbabile che una singola definizione possa descrivere accuratamente la vasta gamma di approcci che possono essere usati ma sostanzialmente troviamo mediazioni:

  • agevolative
  • valutative o direttive
  • trasformative o di problem solving

Secondo Riskin (2003) bisogna tuttavia tenere conto del fatto che la sua natura cambierà anche parecchie volte durante una stessa sessione. Al riguardo il comportamento del mediatore é un continuum che passa dal ruolo facilitativo a quello valutativo secondo questioni diverse e in tempi diversi.

E’ importante quindi considerare la fluidità del processo di mediazione per individuare in che modo l’intelligenza artificiale (AI) potrebbe essere utile nelle diverse fasi.

Alla base della relazione infatti non  vi è un programma formale ma la capacità dinamica di sapersi inserire strategicamente nella comunicazione e volgere la controversia verso la soluzione.

>> Scopri ora il corso ECM "La comunicazione strategica nelle professioni sanitarie" che permette di acquisire 30 crediti ECM

Il fenomeno degli agenti relazionali dell’intelligenza artificiale

Per agenti relazionali intendiamo dei sofisticati sistemi che sotto forma di robot o avatar sono in grado di creare relazioni a lungo termine basate su fiducia e condivisione degli obiettivi. Al di là della somiglianza con gli umani sono in grado di agire e pensare come loro?

Sebbene la semplice riproduzione dell’aspetto umano non sia sufficiente per metterli allo stello livello di efficienza relazionale, gli studi di See (2009) hanno dimostrato che l’AI (Artificial Intelligence) è capace di comportamenti per la facilitazione delle controversie.

Le capacità degli agenti relazionali di connettersi e coinvolgere l’interlocutore umano infatti possono essere utili nei casi in cui è necessario creare un ambiente empatico e naturale.

A tal proposito questa competenza é stata utilizzata da Larson (2010) all’interno della Deaf Community (comunità dei sordi). Lo studioso si è infatti chiesto se il dispositivo artificiale fosse in grado di comunicare emozioni anche laddove mancasse l’abilità verbale. La lunga padronanza delle competenze testuali della comunità dei sordi fornisce una risposta chiara a tale domanda.

Molto prima che la Deaf Community utilizzasse mail e messaggi di testo per comunicare vi erano in uso dispositivi di telecomunicazione come:

  • i Teletypewriters (Larson et al., 2009) che utilizzano acronimi per comunicare emozioni
  • i Video Relay Service (VRS), un servizio che collega i non udenti ad un interprete che traduce la chiamata (Larson et al., 2009)
  • i V-log, la versione video dei blog

Facilitando l’inserimento della tecnologia nella mediazione di contesti con caratteristiche uniche come quella della comunità dei sordi. Il principio è però applicabile anche alla popolazione intera poiché l’utilizzo di un avatar accattivante può creare maggior coinvolgimento delle parti durante l’introduzione dell’argomento del giorno.

L’incipit può essere reso disponibile su Internet, via mail o sul dispositivo mobile e potrà essere rivista su richiesta (Larson et al., 2009). Sebbene l’intervento di un mediatore tende ad essere piuttosto generico, può essere facilmente modificato ed essere salvato per future mediazioni. La difficoltà in questo caso sarebbe la necessità di saltare la “vera” mediazione evitando passaggi importanti del processo.

E’ necessario quindi effettuare dei training per abituare i partecipanti all’interazione con l’AI.

Lo studio dell’Università di Denver

Ma cosa accade quando la mediazione é necessaria in caso di conflitto tra i membri di un team e non solo nelle controversie quotidiane?

Gale Lucas e Jonathan Gratch della USC Viterbi School Engineering di Denver e l'USC Institute for Creative Technologies hanno risposto a questa domanda. Nel loro studio hanno infatti creato una simulazione nella quale un team di tre persone è stato supportato da un avatar di un agente virtuale.

Nello specifico il ruolo di Chris (questo il nome dell’avatar) era quello di assistere il team in una missione progettata per garantire il fallimento e provocare conflitti.

Sono stati infatti presentati 27 scenari svolti in un’accademia virtuale per testare in che modo la squadra avrebbe coinvolto l’agente virtuale nel processo di mediazione. Sebbene gli stessi autori avessero notato in uno studio precedente come le interazioni con un terapista virtuale avevano prodotto più confessioni, in questo caso la probabilità di interagire con Chris erano minori.

L’agente virtuale non è stato ignorato in alcun modo ma l’interazione con esso è diminuita nel corso dell’esercitazione.

Se all’inizio il team ha risposto socialmente a Chris con sorrisi e ringraziamenti, alla fine del compito il loro impegno è diminuito. I partecipanti hanno persino completamente incolpato l’agente virtuale per il fallimento della missione.

A tal proposito l’autore Kerstin Haring ha affermato:

"La coesione del gruppo quando si svolgono compiti complessi insieme è un fattore estremamente complesso e importante. Sarà molto interessante scoprire gli interventi e le risposte sociali per integrare in modo trasparente agenti virtuali nei team umani per farli funzionare meglio ".

Secondo Gale Lucas, co-autore dello studio, alcuni feedback dei partecipanti hanno descritto gli agenti virtuali come Chris neutri e imparziali.

In conclusione, le ricerche future dovrebbero approfondire il ruolo dell’intelligenza artificiale nella discussione e nella soluzione delle controversie non solo nei team militari ma anche in altri contesti di lavoro. Sarebbe interessante inoltre comprendere in che modo il ruolo del mediatore virtuale potrebbe facilitare la comunicazione in situazioni uniche come quelle della comunità dei sordi.

>> Leggi anche:

Il tempo passato sui social media non é correlato alla depressione negli adolescenti

I corsi ECM si possono dedurre fiscalmente al 100%

 

Fonti:

University of Southern California. "Do we trust artificial intelligence agents to mediate conflict? Not entirely: New study says we'll listen to virtual agents except when goings get tough." ScienceDaily. ScienceDaily, 16 October 2019.

Larson, David Allen, "Artificial Intelligence: Robots, Avatars and the Demise of the Human Mediator" (2010). Faculty Scholarship. Paper 351.http://open.mitchellhamline.edu/facsch/351

David Allen Larson & Paula Gajewski Mickelson, Technology Mediated Dispute Resolution and the Deaf Community, 3 

Leonard L. Riskin, Who Decides What? Rethinking the Grid of Mediator Orientations, DISPUTE RESOLUTION MAGAZINE, Winter 2003, at 23).

Inserita il 24/02/2020

Ci hanno già scelto:

... e tanti altri: vedi tutti i partner

Accedi con impronta