Mitchell, lo sconosciuto difensore inglese che sta mettendo paura ai procuratori: ha sostituito il suo agente con l’intelligenza artificiale

Ne parla El Mundo. «Un agente mi chiede una commissione del 5%, ChatGpt mi addebita solo 15 sterline». Il procuratore Moreno ammette: «L'arrivo dell'intelligenza artificiale è una preoccupazione nel nostro settore». Ma i rischi non mancano

Jorge Mendes Gazzetta Kvaratskhelia

Db Milano 02/12/2019 - Gran Gala' del Calcio Aic 2019 / foto Daniele Buffa/Image Sport nella foto: Jorge Mendes

Un difensore di League One, un abbonamento premium a ChatGpt da 15 sterline e un contratto firmato senza intermediari: l’esperimento di Demetri Mitchell apre un fronte inedito nel calcio professionistico. L’ingresso dell’intelligenza artificiale nelle trattative di mercato allarma – e non poco – agenti e dirigenti. Ne scrive El Mundo.

L’Ia entra nelle trattative di mercato: i dettagli

Si legge su El Mundo:

«Un agente mi chiede una commissione del 5%, ChatGpt mi addebita solo 15 sterline per il suo abbonamento premium». L’audacia di Demetri Mitchell, un modesto difensore di League One (la terza divisione del calcio inglese), ha messo in allerta agenti e procuratori. 

Mitchell è stato pioniere nell’uso di un modello di intelligenza artificiale per negoziare un trasferimento, progettato per riconoscere schemi e prendere decisioni senza l’intervento umano. È stato il primo a finalizzare un accordo con il Leyton Orient , un prestigioso club londinese, senza intermediari. Mitchell ha 28 anni e proviene dalle giovanili del Manchester United.

Le parole del professor Cordón…

Óscar Cordón , professore specializzato in studi sull’intelligenza artificiale all’Università di Granada, sottolinea che quanto accaduto nel calcio inglese apre una strada, ma che va affrontata con cautela.

«Ci sono molte attività, come gli investimenti in borsa, che non sono più necessarie perché con un semplice incrocio di dati si possono ottenere informazioni finanziarie. La negoziazione senza agenti nel calcio diventerà senza dubbio più diffusa, ma non è una panacea . L’intelligenza artificiale è un modello linguistico che prevede i movimenti, ma questo non significa che sia accurato nel riflettere la realtà. La macchina provoca quelle che chiamiamo “allucinazioni”, che sono errori fondamentali. Dobbiamo essere molto cauti nel suo utilizzo ; sappiamo già che alcuni giovani la usano per le loro relazioni personali e alcuni hanno finito per suicidarsi. Questo mondo dell’interazione deve essere affrontato con estrema cautela.»

…e quelle di Mitchell

«Ho iniziato a usare ChatGpt e gli ho chiesto come avrei dovuto negoziare il contratto e cosa avrei dovuto dire. Gli ho detto quanto guadagnavo la scorsa stagione, che avrei dovuto trasferirmi a Londra, qual era il costo della vita lì e che mia moglie e mio figlio sarebbero venuti con me. Sapevo di poter negoziare al di sopra di quanto mi avevano offerto.»

La preoccupazione di agenti ed esperti

Joyce Moreno, agente ed ex difensore del Real Madrid, va nella stessa direzione:

«L’arrivo dell’intelligenza artificiale è una preoccupazione nel nostro settore. Stiamo già valutando come potrebbe influenzarci. Negli ultimi anni sono emerse diverse piattaforme che hanno migliorato il lavoro degli scout in termini di valutazione e caratteristiche dei giocatori. Questo dovrebbe essere visto come un bonus per il nostro lavoro.»

«Bisogna adattarsi e rinnovarsi, ma non mi piacciono i dati freddi sulla squadra per cui si potrebbe firmare o sulle prestazioni specifiche di un giocatore, perché quando si negozia bisogna considerare anche altre variabili, come l’istruzione, la famiglia, l’ambiente e il background del calciatore . In tutte le negoziazioni ci sono fattori intangibili che l’Ia non apprezza», conclude Joyce Moreno.

Guillermo Ricardo Simari , informatico e direttore del Laboratorio di Ricerca e Sviluppo in Intelligenza Artificiale presso l’Università Nazionale del Sud di Buenos Aires, mette in guardia dall’uso improprio di questi strumenti.

«Sistemi come Llms, ChapGpt o Gemini sono davvero inaffidabili perché producono quelle che i progettisti chiamano allucinazioni. Non comprendendo cosa costituisca la verità (nel gergo dell’intelligenza artificiale, questa si chiama ground truth ), inseriscono qualsiasi cosa sembri appropriata nel testo generato. Non sono sistemi intelligenti.»

 

Correlate