manuale_insolvenza

home / Archivio / Fascicolo / L´Intelligenza artificiale per lo sport alla prova del quadro regolamentare europeo

indietro stampa articolo indice fascicolo leggi articolo leggi fascicolo


L´Intelligenza artificiale per lo sport alla prova del quadro regolamentare europeo

Alberto Orlando, Ricercatore (RTDa) in Diritto pubblico comparato nell’Università degli Studi del Salento

I sistemi di intelligenza artificiale sono sempre più utilizzati per una serie di impieghi diversificati nello sport. Tuttavia, finora sono state poco indagate le sfide legali che possono essere direttamente collegate all'uso dell’IA nel settore. Tale fenomeno deve essere inquadrato all'interno di un quadro normativo europeo in grande fermento, che ha portato negli ultimi anni istituzioni nazionali e sovranazionali a rivedere la normativa sulla privacy e a tentare i primi approcci normativi nel campo dell'IA. In particolare, l’UE sta intervenendo pesantemente in questi ambiti: l'approvazione del GDPR, applicabile dal 2018, ha completamente riformato la disciplina in materia di protezione dei dati personali; molto più recentemente, nel 2021, la Commissione Europea ha pubblicato una proposta di Regolamento sull’IA (AI Act). La riflessione giuridica su questi temi è tuttora in corso, ma essa si trova ancora in una fase a dir poco embrionale con specifico riferimento all’impatto dell’IA sul fenomeno sportivo. In questo contesto, occorre chiedersi fino a che punto l’attuale quadro normativo possa dimostrarsi adeguato davanti agli utilizzi sempre più diffusi e disparati dei sistemi di IA in ambito sportivo. Il contributo cerca di individuare i profili giuridici più interessanti che derivano dall'applicazione della disciplina attuale e in via di formazione, tenendo conto della specificità che deve essere riconosciuta al sistema sport e cercando di suggerire un ruolo attivo per le istituzioni sportive di fronte alle sfide normative poste dallo sviluppo dell'IA per lo sport.

Artificial intelligence for sport to the test of the european regulatory framework

Artificial intelligence systems are used for a variety of reasons in sport. However, little has been explored about the legal challenges that can be directly linked to the use of AI systems in sports. This phenomenon must be framed within a European legal framework in great turmoil, which has led national and supranational institutions to review privacy legislation in recent years and to attempt the first regulatory approaches in the field of AI. In particular, the EU is intervening heavily in these areas: the approval of the GDPR, applicable since 2018, completely reformed the regulations on the protection of personal data; much more recently, in 2021, the European Commission published a proposal for a Regulation on AI (AI Act). Legal reflection on these issues is still in progress, but it is in an even more embryonic phase if we think about the impact of AI on the sporting phenomenon. In this context, we need to ask ourselves whether the current regulatory framework will hold up against the increasingly widespread and disparate uses of AI systems in the field of sport. The paper seeks to identify the most interesting legal profiles that are highlighted by the application of the current and emerging discipline to the phenomenon, taking into account the specificities of sport and trying to suggest a role for sports institutions with reference to the regulatory challenges posed by the development of AI for sport.

 

Sommario:

1. Introduzione: alla ricerca di regole per lIA nello sport - 2. Definire lIA e inquadrare lIA per lo sport - 3. Sviluppare IA per lo sport nel rispetto del GDPR - 4. Il (possibile) impatto sul settore sportivo del nascente impianto regolamentare in materia di IA - 5. Lo spazio per le istituzioni sportive: una sfida da cogliere? - NOTE


1. Introduzione: alla ricerca di regole per lIA nello sport

L’applicazione dei sistemi di intelligenza artificiale nello sport non può dirsi più una novità: è innegabile che negli ultimi anni gli impieghi siano cresciuti a dismisura e siano arrivati a toccare, all’interno del mondo dello sport complessivamente inteso, attività assai differenti tra loro. Senza pretesa di esaustività, l’IA è oggi utilizzata, soprattutto nello sport di alto livello, con riferimento: alle tecniche di allenamento e di coaching (formazione, tattica, miglioramento delle prestazioni degli atleti, prevenzione infortuni, ecc.), alla valutazione della performance e del valore degli atleti, all’assistenza ai direttori di gara, a svariate tecniche di fan engagement [1].

Un impiego così massiccio pone in rilievo una serie di questioni applicative che si intersecano con profili giuridici e con la tutela dei diritti dei soggetti coinvolti: in particolare, l’espansione del fenomeno porta a interrogarsi sulla necessità di una regolamentazione giuridica, ossia sulla tenuta del quadro normativo attuale in rapporto alla «specificità» del sistema sport [2] e sulla opportunità o meno di introdurre nuove regole giuridiche.

In questo lavoro si circoscrive l’attenzione al solo quadro normativo europeo. Da un lato, le interazioni tra IA e sport diventano in Europa sempre più frequenti e rilevanti; dall’altro, l’UE si distingue, nell’intero panorama mondiale, come il regolatore pubblico che più di ogni altro sta tentando di introdurre una disciplina giuridica in materia di IA [3]. Sebbene non esistano norme o proposte regolatorie specificamente dedicate all’applicazione dell’IA nel mondo dello sport, appare opportuno chiedersi quanto la disciplina europea, vigente o ancora in via di definizione, riesca ad offrire risposte adeguate alle esigenze e ai bisogni di chi opera nello sport [4].

In questo lavoro, appare utile volgere lo sguardo a due testi normativi in particolare, con l’obiettivo di interrogarsi sulla loro effettiva incidenza in materia di IA applicata allo sport. In primo luogo, il regolamento europeo sulla protezione dei dati personali (reg. (UE) 2016/679, di seguito GDPR), entrato in vigore nel 2018, impatta inevitabilmente sul fenomeno, considerato il fatto che i software utilizzati necessitano di una enorme quantità di dati, molto spesso riguardanti gli atleti, poi trattati e rielaborati dal sistema. In secondo luogo, appare interessante osservare la proposta di Regolamento sull’IA (COM (2021) 206 final, di seguito AI Act), attualmente al vaglio delle Istituzioni europee, con cui la Commissione europea ha proposto una prima disciplina del fenomeno IA complessivamente inteso: in tal senso, sembra opportuno interrogarsi fin da ora sugli effetti che una futura approvazione del testo potrebbe avere sulle applicazioni dell’IA nello sport.


2. Definire lIA e inquadrare lIA per lo sport

Come noto, la definizione di IA è ampiamente dibattuta già a livello scientifico [5]: si tratta, infatti, di una categoria molto ampia che ricomprende utilizzi, tecniche e approcci assai differenti tra loro per caratteristiche e, di conseguenza, per problemi giuridici che ne scaturiscono. Inoltre, il regolatore che punta a disciplinare il fenomeno è costretto a porsi la questione dell’utilizzabilità delle definizioni scientifiche a fini giuridici.

Senza poter entrare nel dibattito, in questa sede appare sufficiente limitarsi a riportare la definizione offerta dall’UE nell’AI Act, laddove è definito come sistema di IA il «software sviluppato con una o più delle tecniche e degli approcci elencati nel­l’allegato I, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono» [6]. Tale definizione appare abbastanza ampia sia con riferimento alle caratteristiche, sia con riferimento alle attività che l’IA può porre in essere. In ogni caso, essa riconosce ai sistemi di IA, sulla base di input dati dal­l’uomo, la capacità di generare output con un certo grado di autonomia.

Sembra corretto affermare che proprio attorno alla definizione di «autonomia» del sistema ruotino entità e portata dei problemi giuridici che riguardano l’utilizzo dell’IA. Infatti, la difficoltà di applicare le categorie giuridiche tradizionali – su tutte, responsabilità e trasparenza – quando ci si confronta con gli impieghi dell’IA appare direttamente proporzionale al grado di «autonomia decisionale» di cui è dotata la macchina: in altri termini, più un sistema si dimostra autonomo – ossia, agisce e prende decisioni in maniera indipendente dal controllo umano e secondo logiche sempre meno comprensibili per l’agente umano –, più risulterà problematico ripartire le responsabilità tra gli esseri umani a vario titolo coinvolti (cc.dd. AI actors) e/o assicurare agli stessi soggetti la garanzia dei propri diritti e delle altre situazioni giuridiche soggettive su cui le decisioni della macchina incidono direttamente o indirettamente [7].

La stessa Commissione europea ci tiene a specificare che l’IA può operare secondo diverse «tecniche e approcci», preoccupandosi di operare una tripartizione, riportata in un allegato alla Proposta, tra tecniche di apprendimento automatico, approcci su basati su logica e conoscenza, approcci statistici [8]. Sebbene nel testo non ci si spinga oltre rispetto ad una classificazione meramente descrittiva, tuttavia è significativo notare come una distinzione tra gli approcci utilizzati dai sistemi di IA compaia all’orizzonte tra i pensieri del regolatore. In effetti, non appare insensato sottolineare come molte delle questioni giuridiche che derivano dall’impiego dell’IA – su tutte, quelle connesse a responsabilità e trasparenza, cui si faceva cenno prima – diventano maggiormente critiche proprio quando questi sistemi operano sulla base del­l’apprendimento automatico e delle tecniche ad esso connesse.

Tuttavia, più che addentrarsi nella tripartizione descritta, potrebbe tornare utile anche a fini regolatori la distinzione classica tra IA simbolica e sub-simbolica, che gli informatici hanno operato nel mare magnum dell’IA a partire dagli anni Ottanta del secolo scorso [9]. L’IA del primo tipo deriva strettamente dalla logica e si basa sul­l’idea che il pensiero umano sia ricostruibile a partire da un piano logico e concettuale a prescindere dai valori concreti dell’esperienza (approccio top-down), sfruttando principalmente, ma non esclusivamente, il ragionamento deduttivo e la logica del «se-allora»: da una serie di premesse si fanno derivare delle conseguenze seguendo specifiche regole che consentono la manipolazione della conoscenza tramite simboli astratti. L’IA sub-simbolica, invece, tenta di riproporre il principio funzionale del cervello umano nella maniera più precisa possibile e di simulare le reti neurali in maniera artificiale (approccio bottom-up). Al contrario della IA classica, quella sub-simbolica si «allena»: a partire dall’esperienza essa genera la sua conoscenza e, pertanto, pone maggiori problemi in termini di explainability, a fronte di efficacia ed efficienza in molti casi superiore [10].

L’IA utilizzata nello sport appartiene ad entrambi gli approcci, anche se gli impieghi maggiormente all’avanguardia sfruttano inevitabilmente le capacità dell’IA sub-simbolica e delle tecniche di apprendimento automatico. In effetti, tali approcci sembrano favoriti nel settore sportivo per una serie di fattori: in primo luogo, le tecnologie oggi a disposizione consentono di raccogliere e immagazzinare una quantità di dati enorme prima inimmaginabile, riguardanti fasi e situazioni diverse (ad es., allenamento e gara) e di natura differente (statistiche, contenuti audio/video, ecc.); in secondo luogo, gli sport sono a tutti gli effetti «giochi a regole chiaramente definite», che quindi consentono al software di operare all’interno di un perimetro regolamentare e secondo condizioni previamente date; in terzo luogo, anche gli obiettivi da raggiungere non si prestano a criticità interpretative: in pratica, sarà compito della macchina trovare la soluzione concessa all’interno del perimetro di regole definito che possa aiutare – per es. – una squadra di calcio a segnare più gol dell’avversario, una squadra di basket a totalizzare un punteggio più alto dell’avversario, un golfista ad andare in buca con meno colpi possibile, ecc.

Proprio per questi motivi, ormai da decenni tra i risultati di maggiore risonanza – almeno da un punto di vista mediatico – raggiunti grazie all’impiego dell’IA, si annoverano appunto la capacità di una macchina di primeggiare in giochi a regole definite come gli scacchi o Go [11]. E se, al netto dei recenti sviluppi dell’IA, i progressi relativi alle capacità di movimento delle macchine – per intenderci, lo sviluppo della robotica «umanoide» – non rendono ancora possibile immaginare «robot-atleti» in grado di competere con gli uomini, tuttavia l’influenza dell’IA negli sport di movimento entra di prepotenza dalla porta posteriore, nel momento in cui, anziché sostituire l’atleta umano, essa orienta e suggerisce invece le decisioni dello stesso atleta o, in molti casi, dell’agente umano che per mestiere è chiamato a «guidare» l’atleta nelle sue decisioni (es. allenatore e staff tecnico).

In questo senso, come accade già in altri svariati ambiti [12], non mancano suggestioni secondo le quali alcune figure sarebbero destinate a essere completamente – o quasi – sostituite dall’IA: nello sport, tale sorta tocca nelle visioni più avveniristiche ai componenti dello staff tecnico oppure agli ufficiali di gara. Sembra però corretto – e forse anche scontato – ribadire che, in realtà, la componente decisionale umana, al netto di qualsiasi evoluzione tecnologica, conserverebbe comunque una sua unicità e specificità: pertanto, appare difficile ipotizzare, pure in un orizzonte temporale di lungo periodo, che si possa fare completamente a meno dell’interpretazione di un momento o un episodio all’interno di una gara sportiva da parte – per restare agli esempi fatti – dei componenti dello staff tecnico o del direttore di gara designato.

A questa constatazione, per certi versi lapalissiana, devono però essere affiancate almeno un paio di riflessioni. Da una parte – come pure si dirà nel prosieguo – il fatto che l’IA renda determinate decisioni secondo ragionamenti spesso imperscrutabili e con riguardo a dinamiche di gioco assai complesse potrebbe indurre l’agente umano, qualunque ruolo questi si trovi a ricoprire, ad accettare passivamente, quasi a «ratificare senza esame», le decisioni della macchina: quindi, sebbene l’integrale sostituzione dell’uomo da parte dell’IA appaia ipotesi utopistica, più reale appare il problema della effettività della c.d. human oversight, che pure viene spesso considerata la soluzione per molti dei problemi posti dall’applicazione di queste nuove tecnologie. D’altro canto – come invece già è stato accennato – la diffusione dell’IA e la diversificazione dei suoi impieghi aumenta inevitabilmente le criticità in ordine all’applicabilità di principi e categorie giuridiche consolidate, ad es. in materia di responsabilità e trasparenza: se è vero quanto appena detto sulla insostituibilità della componente umana, resta da definire in quali termini l’agente umano possa ritenersi «responsabile» delle decisioni assunte su indicazione o con l’ausilio della macchina e, inoltre, quali possano essere le pretese dei soggetti coinvolti con riferimento alla trasparenza, ossia alla «comprensibilità», dell’algoritmo alla base del funzionamento del sistema di IA [13].

Tutti profili che anche nel mondo dello sport emergono sempre con maggiore frequenza e in ordine ai quali sembra improcrastinabile avviare una seria riflessione. Con riguardo al profilo della responsabilità, occorre infatti interrogarsi su ruolo, competenze e doveri di chi richiede e utilizza il software (società sportiva, associazione sportiva, Federazione o lega, atleta e/o suo entourage, direttori di gara, ecc.) e di chi lo fornisce (provider). E la questione appare legata a doppio filo a quella riguardante la comprensibilità e la trasparenza dei sistemi: se, infatti, si punta a scongiurare il più possibile l’introduzione di forme di responsabilità oggettiva [14], occorre che gli obblighi e i doveri siano commisurati al grado di competenza e di conoscenza del funzionamento del sistema che logicamente può essere preteso in capo agli AI actors. L’allocazione della responsabilità in capo agli operatori sportivi a vario titolo coinvolti si scontra inevitabilmente con una scarsa competenza a livello tecnologico, che solo in parte può essere colmata attraverso l’adempimento di obblighi informativi da imporre al provider. Anche perché non appare peregrino affermare che in alcuni casi i sistemi di IA più sofisticati pongano problemi di explainability pure per gli stessi programmatori ed esperti. Fino a che punto ha senso quindi interrogarsi sulla configurabilità di un diritto alla comprensione dell’algoritmo o del funzionamento del sistema? Oppure: quanto sarebbe saggia una regolamentazione che valorizzasse il principio di precauzione e limitasse l’utilizzo dell’IA a livello sportivo soltanto a quegli utilizzi che garantiscano un adeguato livello di explainability?

Si tratta di sfide estremamente complesse, che passano innanzitutto dalla definizione di IA e dalla classificazione dei sistemi di IA che il regolatore sceglierà di adottare. Come si specificherà più avanti, le Istituzioni europee hanno ormai chiaramente optato per un approccio basato sul rischio, attraverso il quale, quindi, si distinguono sistemi ad alto rischio, per i quali si reputa necessario prevedere una disciplina più puntuale, e sistemi a basso rischio, quasi del tutto lasciati alla self-regulation dei privati.

In questo quadro, occorre interrogarsi sulla posizione da riconoscere all’IA applicata allo sport. Ad una prima riflessione, sembra logico assegnare agli utilizzi dell’IA nello sport un basso rischio, dato che potrebbe argomentarsi si tratti comunque di un settore deputato all’intrattenimento, pertanto difficilmente comparabile, quantomeno per incidenza sui diritti fondamentali, con altri settori maggiormente «sensibili». Seguendo questo ragionamento, si potrebbe dire che gli svantaggi derivanti dall’appli­cazione dell’IA nello sport difficilmente supererebbero, nell’ottica di un necessario bilanciamento tra rischi e benefici, i vantaggi apportati dalle stesse tecnologie: in questo senso, infatti, depongono anche i primi studi sul tema, volti soprattutto a svelare e approfondire le potenzialità delle nuove applicazioni tecnologiche, ma difficilmente dedicati al (quantomeno eventuale) rovescio della medaglia [15]. Tuttavia, l’ipotesi che alcuni utilizzi possano in realtà mettere in serio pericolo finanche i diritti fondamentali degli atleti o degli altri attori coinvolti non può essere esclusa con leggerezza [16]. Come si vedrà, nello stesso elenco dei sistemi ad alto rischio proposto dalla Commissione europea, pur in totale assenza – come immaginabile – di qualsiasi riferimento specifico al fenomeno sportivo, si ritrovano utilizzi che sembrano essere applicati ormai abbastanza comunemente nello sport di alto livello. Di fatto, quindi, lungi dall’operare precipitose semplificazioni, la definizione e classificazione dei sistemi di IA resta operazione da condurre tenendo in conto la diversità di caratteristiche tra i vari sistemi e i differenti utilizzi possibili in ogni settore. Lo sport, dal canto suo, presenta peculiarità proprie che in un’ottica definitoria e regolatoria non potranno essere trascurate.


3. Sviluppare IA per lo sport nel rispetto del GDPR

Come noto, dal 2018 il GPDR disciplina la protezione dei dati personali in ambito europeo [17]. L’art. 4 GDPR definisce dato personale «qualsiasi informazione riguardante una persona fisica identificata o identificabile», mentre come trattamento «qualsiasi operazione o insieme di operazioni, compiute con o senza l’ausilio di processi automatizzati e applicate a dati personali o insiemi di dati personali». Davanti a queste definizioni e pensando alla quantità di dati riguardanti squadre e atleti elaborati dai sistemi di IA, sembra inevitabile affermare che l’impiego dell’IA nello sport si sostanzi assai spesso in un trattamento di dati personali e debba pertanto essere sottoposto all’applicazione del GDPR. Vero pure che l’applicabilità della normativa potrebbe essere scongiurata in caso di anonimizzazione o pseudonimizzazione dei dati che rendano non identificabile la persona fisica, secondo quanto stabilito dal Considerando 26. Appare chiaro, però, che un impiego dell’IA nello sport che rispettasse questi parametri, per quanto astrattamente possibile, di fatto comporterebbe un pesantissimo ridimensionamento delle potenzialità delle nuove tecnologie per i fini per i quali esse sono utilizzate: ad esempio, si vanificherebbero quasi tutti i benefici per le tecniche di allenamento di squadra e individuali implementate dall’IA (si pensi, ex multis, ai software per la prevenzione degli infortuni) qualora non si potesse associare il dato raccolto alla persona fisica cui si riferisce. Sembra quindi inevitabile che il GDPR trovi applicazione. Pertanto, l’utilizzo dell’IA nel mondo dello sport deve sottostare ai principi stabiliti dall’art. 5, validi per qualsiasi trattamento di dati personali: liceità, correttezza e trasparenza del trattamento; determinatezza, chiarezza e legittimità delle finalità; adeguatezza, pertinenza e limitatezza dei dati; esattezza e aggiornamento dei dati.

Un primo problema sembra porsi già con riguardo al riconoscimento dei ruoli. Dovendo distinguere tra responsabile e titolare del trattamento, per i quali il GDPR delinea discipline e obblighi differenti [18], nel mondo dello sport ci troviamo di fronte a tre soluzioni astrattamente possibili: a) l’ente sportivo potrebbe essere considerato responsabile e titolare del trattamento, mentre il fornitore del software di IA opererebbe come terza parte meramente esterna; b) l’ente sportivo potrebbe essere titolare del trattamento, mentre il responsabile sarebbe il fornitore del software; c) l’ente sportivo e il fornitore potrebbero essere considerati come co-titolari e co-responsabili [19]. Nella pratica, si rende necessario – oltre che auspicabile – che ente sportivo e fornitore del software concordino in privato ruoli e competenze, in modo da garantire l’adeguato rispetto del Regolamento: si tratta di operazione che dovrà essere condotta in via preventiva dai soggetti coinvolti e che presuppone, quindi, un alto grado di consapevolezza anche da parte di enti operanti nel mondo dello sport con riferimento ai potenziali rischi derivanti dall’applicazione dell’IA.

In ogni caso, tutte le volte in cui l’utilizzo dell’IA nello sport si sostanzi in un trattamento di dati personali, allora esso sarà lecito solo qualora ricorra una delle condizioni di cui all’art. 6 GDPR. In relazione al fenomeno sportivo, appare utile soffermarsi su almeno tre condizioni in particolare.

In primo luogo, il trattamento è lecito se necessario per l’esecuzione di un contratto di cui l’interessato è parte [20]. Nella maggior parte dei casi, ai nostri fini, per «interessato» sembra potersi intendere l’atleta cui si riferiscono i dati personali trattati: in tal senso, provare che l’utilizzo di sistemi di IA risulti addirittura «necessario» per lo svolgimento dell’attività lavorativa dell’atleta potrebbe risultare compito abbastanza arduo. Stando alle Linee guida rilasciate dal Comitato europeo per la protezione dei dati, infatti, la valutazione di ciò che è «necessario» implica un’analisi fattuale delle operazioni di trattamento e delle loro finalità, dovendosi preferire alternative meno intrusive che raggiungano lo stesso obiettivo [21]: in questo senso, abbastanza restrittivo, andrebbe quindi interpretata la disposizione in oggetto, alla luce dell’impianto sistematico di tutto il Regolamento. Nello sport, appare indubbio che l’IA possa comportare vantaggi sia per la società sportiva sia per lo stesso atleta, quantomeno sotto il punto di vista del miglioramento delle prestazioni: tuttavia, pare ragionevole sostenere che la prestazione lavorativa potrebbe essere svolta comunque anche senza l’impiego di questi sistemi. Pertanto, i margini per un trattamento sulla base di questa condizione sembrano in realtà abbastanza ridotti. La necessità del trattamento per l’esecuzione del contratto troverebbe una giustificazione più forte nel caso in cui fosse inserita nel contratto una clausola specifica in riferimento all’utilizzo di sistemi di IA. In questo caso, però, l’atleta, firmando il contratto, non farebbe che prestare un consenso al trattamento, ricadendo questa ipotesi sotto un’altra delle condizioni di cui all’art. 6.

In secondo luogo, il trattamento è lecito se necessario per il perseguimento di un interesse legittimo del titolare [22]: nel caso dell’IA applicata allo sport, il «titolare» – salve le difficoltà di cui sopra – dovrebbe coincidere con la società/ente sportivo cui appartiene l’atleta-interessato. Come già detto, i vantaggi per la società/ente derivanti dall’utilizzo dell’IA sono incontestabili e si configurano facilmente come interessi legittimi. Tuttavia, lo stesso art. 6 specifica che l’interesse legittimo del titolare è destinato a soccombere davanti a interessi, diritti e libertà fondamentali dell’interessato che risultino prevalenti. Anche in questo caso, quindi, potrebbe risultare assai arduo provare questa prevalenza, dato che l’atleta potrebbe eccepire una violazione dei suoi diritti e interessi. Stando ad un parere ormai abbastanza risalente del WP29 [23], il bilanciamento tra interesse legittimo del titolare e diritti dell’interessato dovrebbe essere condotto seguendo un procedimento in quattro fasi: a) valutazione dell’interesse legittimo del titolare del trattamento, b) valutazione dell’impatto di tale interesse sugli interessati, c) raggiungimento di un equilibrio provvisorio e, qualora la situazione fosse ancora incerta, d) applicazione di garanzie aggiuntive per ridurre qualsiasi impatto negativo sugli interessati. Se sotto il primo profilo non dovrebbe costituire un problema la prova dell’interesse legittimo della società, tuttavia con riferimento alle fasi successive le indicazioni per la società titolare del trattamento sarebbero in realtà abbastanza fumose: ad essa, in quanto titolare del trattamento, toccherebbe assumersi le responsabilità di un corretto bilanciamento. Non pare difficile ipotizzare che su questa condizione gli atleti potrebbero trovare valide contestazioni all’utilizzo non gradito di sistemi di IA.

Da ultimo, ogni trattamento è comunque consentito in caso di consenso dell’inte­ressato [24]. Ad una prima lettura, quindi, l’atleta potrebbe acconsentire a qualsiasi trattamento di dati personali che lo riguardano, a prescindere dall’impiego di sistemi di IA. Tuttavia, da una lettura attenta del GDPR si evince come il consenso non si possa considerare valido presupposto per il trattamento qualora esista un evidente squilibrio tra l’interessato e il titolare del trattamento; inoltre, il consenso deve presumersi non liberamente espresso se l’esecuzione di un contratto è subordinata al consenso nonostante questo non risulti necessario per tale esecuzione [25]. Si tratta di ipotesi che non appare semplice escludere con riferimento ai rapporti tra società sportiva e atleta [26]. Pertanto, il consenso dell’atleta potrebbe non risultare sufficiente ai fini dell’autoriz­zazione al trattamento di dati personali mediante sistemi di IA da parte delle società sportive.

Quanto appena detto sul consenso resta valido anche con riferimento ad altre norme del GDPR, che pure ben si attagliano alle peculiarità dell’utilizzo dell’IA nello sport. L’art. 9, infatti, impone il divieto di trattare dati relativi alla salute, a meno che non sussistano determinate condizioni. Tra queste figure ancora una volta il consenso dell’interessato, ma sono comunque previste altre eccezioni. Ai nostri fini, appare opportuno menzionarne alcune. Il trattamento è consentito: qualora i dati siano resi manifestamente pubblici dall’interessato; se dovuto a finalità di medicina preventiva o di medicina del lavoro o necessario per la valutazione della capacità lavorativa del dipendente; a patto che siano in gioco interessi vitali dell’interessato; quando sussistano obblighi e diritti del titolare o dell’interessato in materia di diritto del lavoro [27]. Anche guardando a queste eccezioni e salvo quanto già detto sul consenso, lo spazio per l’uti­lizzo di sistemi di IA nello sport non sembra venire meno. Se pensiamo all’impiego di software per la prevenzione degli infortuni degli atleti, i quali certamente elaborano dati personali relativi alla salute, non sembra impossibile giustificare il trattamento, anche in assenza di consenso, sulla base delle altre eccezioni previste dall’art. 9: mentre convince poco – o comunque sembra confinato a casi-limite – il riferimento alla salvaguardia di «interessi vitali dell’interessato», il trattamento potrebbe trovare più solida giustificazione davanti alla necessità di valutare la capacità lavorativa del dipendente-atleta. Così pure si potrebbero considerare «resi manifestamente pubblici dall’interessato» – e quindi oggetto di trattamento lecito – i dati relativi alla salute raccolti sulla base della prestazione durante la gara, mentre qualche dubbio in più – magari da sciogliersi nel senso dell’utilizzabilità soltanto da parte della propria società – si potrebbe palesare con riguardo ai dati raccolti durante l’allenamento. Tuttavia, nel­l’applicare l’IA con riferimento a questa categoria di dati, occorre comunque ricordare come l’impostazione generale del GDPR sia quella di imporre un divieto al trattamento, salvo determinate condizioni, le quali, quindi, dovranno essere interpretate in senso abbastanza restrittivo. Pertanto, un ente sportivo dovrà considerare che la giustificazione al trattamento di dati relativi alla salute attraverso sistemi di IA dovrà comunque essere più solida rispetto a quella relativa al trattamento degli altri dati personali.

Sempre con riferimento al GDPR, occorre poi fare almeno cenno al dibattuto art. 22 sui processi decisionali automatizzati, il quale al primo comma riconosce all’inte­ressato il diritto a non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato di dati personali [28]. Si tratta di una disposizione che per forza di cose entra in relazione con l’applicazione dei sistemi di IA, dato che questi sono appunto dotati di un certo grado di autonomia utile a rendere previsioni, raccomandazioni o decisioni, che possono anche incidere in modo significativo – come recita più o meno testualmente l’art. 22 – sulle persone. Anche in questo caso, il Regolamento prevede però delle eccezioni, che in qualche modo rischiano di svuotare di significato lo stesso diritto appena riconosciuto: ai sensi del secondo paragrafo dello stesso art. 22, infatti, questo genere di trattamento è permesso se necessario per la conclusione o esecuzione di un accordo tra interessato e titolare, oppure se autorizzato dal diritto statale o unionale, oppure se basato sul consenso esplicito dell’interessato. Per quanto qui di nostro interesse, non appare impossibile ipotizzare processi decisionali automatizzati resi da sistemi di IA che incidano significativamente sui diritti degli atleti, ma appare ancora più semplice immaginare che questo genere di processi (tra cui il GDPR cita esplicitamente la profilazione delle persone fisiche) arrivi a riguardare i tifosi, dato che l’utilizzo dell’IA nell’ambito del fan engagement è fenomeno in fortissima crescita. Senza entrare nel dibattito sulla problematica interpretazione dell’art. 22 [29], appare comunque utile notare come il divieto in questione costituisca ulteriore baluardo all’utilizzo dei sistemi di IA nello sport. Baluardo che, in verità, non appare in questo caso insormontabile, dato che le eccezioni sembrano lasciare aperti importanti spiragli.

In definitiva, il GDPR offre già alcune prescrizioni che gli operatori del mondo dello sport interessati ad utilizzare sistemi di IA devono tenere in considerazione. Tuttavia, la peculiarità del fenomeno e la rapida evoluzione tecnologica sembrano svelare una certa incertezza, se non addirittura inadeguatezza o paradossale – vista la «giovane età» del Regolamento – obsolescenza della normativa sulla protezione dei dati personali, a partire già dalla definizione di ruoli, obblighi e responsabilità degli attori coinvolti. Soprattutto, poi, nonostante gli indubbi passi in avanti, il sistema congegnato dal GDPR appare, come quello previgente, ruotare ancora attorno alla manifestazione del consenso dell’interessato: situazione che nel mondo dello sport pone in capo all’atleta l’accettazione – più o meno «libera» – dell’utilizzo dei sistemi di IA. Inoltre, come visto, anche in assenza di consenso dell’atleta, residuano comunque ulteriori spazi di liceità per l’IA nello sport, tutti però da definire e da argomentare in ossequio al rispetto dei diritti e delle libertà fondamentali delle persone coinvolte.


4. Il (possibile) impatto sul settore sportivo del nascente impianto regolamentare in materia di IA

Con specifico riguardo all’IA, l’UE si distingue nell’intero panorama mondiale per l’attenzione rivolta alla regolamentazione del fenomeno. A differenza degli altri competitor – come USA e Cina – le Istituzioni europee hanno avviato da qualche anno una cospicua riflessione sul tema, che ha portato all’AI Act presentato come proposta dalla Commissione ad aprile 2021 [30]. Questo atto arriva al termine di un percorso iniziato da qualche anno con la Risoluzione del Parlamento europeo sulla robotica (2017) [31], invero piuttosto caotica, e definitosi via via attraverso il lavoro di un Gruppo di esperti nominato ad hoc [32] e la susseguente stesura di un Libro bianco sull’IA [33].

Attraverso questa serie di documenti l’UE ha maturato la decisione – per nulla scontata – di affrontare le sfide regolatorie poste dall’IA seguendo determinate coordinate [34]. Innanzitutto, è fondamentale la scelta di intervenire con una regolamentazione pubblica del fenomeno, sebbene non manchino gli spazi per forme di co-regulation e self-regulation. Inoltre, l’approccio scelto è di tipo «olistico», nel senso che la disciplina è costruita sull’IA in generale e non sulle sue applicazioni settoriali, che pure conservano un certo rilievo ad esempio nella classificazione dei sistemi sulla base del rischio. Infine, lo strumento regolatorio scelto è un tradizionale atto di hard law, ossia un regolamento ai sensi dell’art. 288 TFUE, avente portata generale, obbligatorio in tutti i suoi elementi e direttamente applicabile negli Stati membri: tuttavia, anche questo aspetto appare smussato per via del ruolo che, nel quadro europeo sull’IA, deve comunque riconoscersi al soft law elaborato dalle stesse Istituzioni [35], alla sperimentazione normativa incoraggiata dallo stesso AI Act [36] e ad una certa discrezionalità lasciata agli Stati membri per l’attuazione di alcuni aspetti del Regolamento [37].

In ogni caso, il fulcro attorno a cui ruota la proposta di Regolamento è – come anticipato – l’approccio basato sul rischio, su cui si fonda la tripartizione dei sistemi di IA in sistemi ad alto, basso e minimo rischio [38]. Solo per la prima categoria, la proposta prevede una disciplina altamente dettagliata che pone una serie di obblighi in capo agli attori coinvolti, ossia la predisposizione di un sistema di gestione dei rischi, una specifica governance dei dati, un alto grado di trasparenza e informazione per gli utenti, la necessità della sorveglianza umana, la garanzia di accuratezza e robustezza del sistema, la valutazione della conformità garantita dai fornitori [39].

Ma quali sarebbero i sistemi di IA ad alto rischio e in quale modo questa classificazione (e la conseguente disciplina) potrebbe impattare sul mondo dello sport? I sistemi ad alto rischio sono indicati in un allegato alla proposta [40] secondo un duplice schema. Innanzitutto, si individuano i «settori» reputati particolarmente sensibili, che quindi richiederebbero maggiore cautela nell’impiego dell’IA in relazione alla rilevanza dei diritti e degli interessi coinvolti: tra questi, si fa riferimento a identificazione biometrica, infrastrutture critiche, istruzione, formazione, occupazione e lavoro, accesso a servizi essenziali, attività di contrasto, amministrazione della giustizia. Tuttavia, perché si possa parlare di sistemi ad alto rischio è necessario non soltanto guardare al settore di impiego, ma al concreto «uso» del sistema: così, per esempio, nel settore «amministrazione della giustizia» l’IA è considerata ad alto rischio soltanto se destinata «ad assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti» [41]. Si tratterebbe, inoltre, di un elenco aggiornabile dalla Commissione, che potrebbe però intervenire solo per segnalare ulteriori applicazioni reputate ad alto rischio all’interno dei settori indicati, ma non potrebbe quindi espungere alcuni utilizzi né modificare l’elenco dei settori sensibili [42].

Stando all’allegato della proposta, nonostante lo sport – come ragionevole – non appaia menzionato né come settore né con riferimento ad alcuno degli utilizzi descritti, non si può però escludere che determinati impieghi dell’IA nello sport possano in realtà rientrare nella categoria dei sistemi ad alto rischio, anche per come congegnata al momento in cui si scrive. In particolare, nel settore «occupazione e lavoro» è considerata ad alto rischio l’IA destinata a essere utilizzata «per l’assunzione o la selezione di persone fisiche […]» [43] o, ancora più specificamente, «l’IA destinata a essere utilizzata per adottare decisioni in materia di promozione e cessazione dei rapporti contrattuali di lavoro, per l’assegnazione dei compiti e per il monitoraggio e la valutazione delle prestazioni e del comportamento delle persone nell’ambito di tali rapporti di lavoro» [44]. Ebbene, appare abbastanza evidente che molti sistemi di IA vengono applicati in ambito sportivo proprio con riferimento al monitoraggio e alla valutazione della performance, con quel che ne può conseguire in termini di ricadute sulle opportunità e le vicende lavorative dell’atleta. Alla luce della disciplina dell’AI Act, l’utilizzo di queste tecnologie imporrebbe pertanto alle società sportive e alle imprese fornitrici del software una serie di obblighi ulteriori rispetto a quelli previsti dal GDPR.

Vale la pena ricordare come la proposta di Regolamento sia al momento in attesa di definitiva approvazione: non mancano già da ora proposte di modifica, pervenute anche dalle istituzioni nazionali degli Stati membri, che riguardano la stessa classificazione basata sul rischio e la disciplina dei sistemi ad alto rischio [45]. Pertanto, in un quadro ancora in evoluzione, gli operatori del mondo dello sport sono chiamati a monitorare e seguire con attenzione gli sviluppi normativi. Resta il fatto che la distinzione tra sistemi ad alto rischio e a basso rischio sembra ormai abbastanza radicata nei ragionamenti delle Istituzioni europee.

A tal proposito, non si può evitare di notare che moltissimi impieghi dell’IA nello sport – ossia, tutti quelli non ricompresi tra gli utilizzi ad alto rischio di cui sopra – rimarrebbero comunque sistemi a basso rischio, quantomeno al netto di (improbabili) interventi ampliativi sul punto in sede di approvazione del testo o di successivo aggiornamento dell’elenco da parte della Commissione. Per gli impieghi a basso rischio l’AI Act non prevede al momento particolari obblighi in capo ai soggetti coinvolti.

Tuttavia, per quanto considerati sistemi a basso rischio, anche questa categoria di IA pone problemi giuridici, che da una parte possono essere definiti «tradizionali» – ossia comuni a tutta l’IA – e dall’altra devono essere tarati sulle specificità del fenomeno sportivo. Come già notato, l’impiego dell’IA più sofisticata, soprattutto se basata su tecniche di apprendimento automatico, pone problemi quantomeno in termini di responsabilità e trasparenza, derivanti dallo scarso livello di explainability che in alcuni casi caratterizza questi software [46]. A queste tematiche è stata rivolta l’attenzione dei primi regolatori: la scelta dell’UE, come visto, è stata quella di predisporre misure adeguate – come sorveglianza umana, accuratezza e robustezza dei sistemi [47] – solo per l’IA reputata ad alto rischio, lasciando sostanzialmente l’IA a basso rischio alla regolazione dei privati.

Tuttavia, in ambito sportivo, come vale per molti altri settori, la rilevanza di questi profili non può essere del tutto trascurata neanche nei sistemi a basso rischio. Ad esempio, l’implementazione – da tanti auspicata – dei sistemi informatici di ausilio ai direttori di gara attraverso tecnologie di IA (si pensi alla valutazione del fuorigioco attraverso un VAR «AI-enhanced» nel calcio) [48], porrebbe problemi di trasparenza del­l’algoritmo utilizzato: avrebbero diritto i direttori di gara, le società e gli atleti a conoscerne il funzionamento? Alla stessa maniera occorrerebbe riflettere sulla ripartizione delle responsabilità tra fornitore, acquirente (ad es., Federazione sportiva) e utente (direttore di gara) in caso di ipotetico malfunzionamento del software o scorretto utilizzo dello stesso. Se una delle prime soluzioni che viene in mente riguarda – soprattutto con riferimento all’esempio appena offerto – la necessità di una sorveglianza umana, è da dire però che la sorveglianza umana può essere declinata in modi assai diversi e pertanto le modalità di sorveglianza andrebbero previste ex ante e con sufficiente grado di dettaglio [49]. D’altronde, non è da sottovalutare il rischio, già accennato, che l’a­gente/sorvegliante umano – nel caso specifico, il direttore di gara – si affidi quasi automaticamente alla decisione resa dall’IA, poiché riguardante circostanze così tecniche e/o complesse da sembrare (almeno astrattamente) valutabili in maniera più precisa dalla macchina (si pensi sempre all’esempio del fuorigioco): in tal modo, il controllo umano sarebbe esercitato in maniera meramente formale e non effettiva, lasciando di fatto impregiudicati i problemi riguardanti responsabilità e trasparenza.

Sebbene si condivida l’orientamento generale dell’UE di limitare la regolamentazione sostanzialmente ai sistemi ad alto rischio e sebbene sembri ragionevole considerare la maggior parte dell’IA applicata allo sport come sistemi a basso rischio, ciò non toglie che forme alternative di regolamentazione del fenomeno restino possibili e in qualche modo auspicabili, magari non da demandarsi necessariamente al regolatore pubblico.


5. Lo spazio per le istituzioni sportive: una sfida da cogliere?

In questo quadro, il mondo dello sport potrebbe avere le carte in regola per inserirsi con forza nelle dinamiche di co-regulation e self-regulation del fenomeno, in particolare valorizzando quel favor che lo stesso AI Act riconosce alla elaborazione di codici di condotta di natura privata volti a promuovere l’applicazione volontaria dei requisiti previsti per i sistemi ad alto rischio anche ai sistemi di IA a basso rischio. Se è vero che la Commissione europea incoraggia questo genere di strumento con specifico riguardo ai fornitori di sistemi di IA, riconosce pure la possibilità che i codici di condotta siano elaborati «anche con la partecipazione degli utenti e di tutti gli altri portatori di interessi e delle loro organizzazioni rappresentative» [50]. In pratica, le istituzioni sportive potrebbero raccogliere l’invito dell’UE e, nell’ottica di una cooperazione con i fornitori dei servizi di IA, stabilire discipline specifiche per determinati utilizzi, mutando, interamente o se del caso parzialmente, ciò che la normativa unionale impone in relazione ai sistemi ad alto rischio.

A questo riguardo, il sistema sport sembra possedere le caratteristiche per raccogliere questa stimolante opportunità. Diversamente da altri settori, infatti, nello sport esiste un sistema di governance strutturato – composto da Comitati olimpici, Federazioni e Leghe – operante a livello nazionale, sovranazionale e internazionale [51]. Le istituzioni che compongono questo sistema, come noto, pur mantenendo natura privatistica, si atteggiano sempre più come attori «pubblici» all’interno del contesto sportivo, giungendo a rapportarsi come tali anche nei confronti delle istituzioni pubbliche vere e proprie e portando a interrogarsi sulla configurabilità di una presunta lex sportiva [52]. In tal senso, basti notare brevemente come la Carta olimpica sia stata più volte modificata negli ultimi anni: dapprima essa si è autoqualificata come strumento avente natura costituzionale [53]; successivamente, in essa è stata sottolineata la portata del principio di autonomia dell’ordinamento sportivo (oggi, classificato come valore dell’Olimpismo) e la neutralità politica del sistema sportivo [54]. Come se non bastasse, il sistema sport appare ormai dotato di un apparato arbitrale che assume sempre più le caratteristiche di un organizzato «potere giurisdizionale», al vertice del quale è posto il TAS [55].

Tuttavia, proprio negli ultimi anni, una tale espansione da parte delle istituzioni sportive ha dovuto fare i conti con la forte presa di posizione delle istituzioni pubbliche, soprattutto operanti a livello europeo, le quali sembrano sempre più intenzionate a giocare un ruolo preponderante nella governance dello sport, visto e considerato il crescente impatto del fenomeno a livello economico e sociale. A questo riguardo, si registra il recente scontro tra Comitato olimpico internazionale e Governo italiano sull’at­tuazione della riforma dello sport in Italia, culminato con la minaccia di sospensione del Comitato olimpico nazionale italiano, poi scongiurata grazie ad un compromesso raggiunto alla vigilia delle Olimpiadi di Tokyo del 2021 [56]. Sulla stessa lunghezza d’onda, anche recenti interventi delle Corti europee sovranazionali che tentano di ricondurre la materia sportiva e la gestione – pur arbitrale – del fenomeno sportivo entro i classici binari giurisdizionali: così, la Corte europea dei diritti dell’uomo ha puntualizzato sul necessario rispetto dei parametri sul giusto processo ex art. 6 CEDU da parte degli organismi arbitrali sportivi (v. caso Pechstein) [57]; la Corte di giustizia dell’UE è arrivata a sindacare, in una maniera apparsa per certi versi inedita, sulla legittimità di regole sportive riguardanti l’accesso a competizioni dilettantistiche sulla base delle disposizioni imposte dai Trattati [58]. Si tratta di un momento storico in cui i rapporti tra istituzioni sportive ed europee sono in via di definizione ed evoluzione.

In questo contesto, l’introduzione di codici di condotta o di forme di regolamentazione dell’IA applicata allo sport promosse dalle istituzioni sportive, specialmente di livello internazionale, sembra non soltanto possibile, ma per certi versi anche auspicabile. La diffusione del fenomeno e gli interessi che entrano in gioco impongono, infatti, una presa di posizione da parte della governance sportiva, che non può limitarsi ad attendere passivamente gli sviluppi della regolamentazione pubblica. D’altro canto, trattandosi di uno spazio di autonomia regolamentare che al momento lo stesso regolatore pubblico lascia, o quasi delega, a forme di regolamentazione privata, le istituzioni sportive avrebbero spazio e modo per rafforzare la propria autonomia, pur nel rispetto e all’interno del quadro normativo generale. Ed in effetti le istituzioni sportive potrebbero dimostrarsi policymakers più competenti nel cogliere e valorizzare i profili peculiari dell’applicazione dell’IA nello sport, considerato il livello di complessità che riguarda, oltre all’evoluzione tecnologica, anche le dinamiche proprie dello sport in generale e dei vari sport nelle loro specificità. Infine, non meno importante è la possibilità – abbastanza plausibile guardando alla struttura della governance sportiva – che questi «codici di condotta» assumano in realtà le forme di atti regolamentari veri e propri, ossia dotati di una certa cogenza nei confronti dei consociati appartenenti al mondo dello sport: così, sembra ipotizzabile che sul punto possano intervenire a vario titolo – ossia attraverso regolamenti, direttive, raccomandazioni, linee guida, ecc. – le Federazioni nazionali e internazionali o lo stesso CIO, né si potrebbe escludere – seguendo in qualche modo l’esempio del percorso unionale – la possibilità di istituire organi di esperti ad hoc incaricati di elaborare documenti di orientamento per gli operatori o per futuri interventi delle istituzioni.

Dall’altro lato, l’avvio di una riflessione nel mondo dello sport sulla disciplina del­l’IA potrebbe giovare alla regolamentazione del fenomeno tout court. In effetti, se le istituzioni sportive dovessero proficuamente attivarsi in tal senso, lo sport potrebbe fungere in qualche modo da spazio di «sperimentazione normativa»: la flessibilità delle soluzioni adottate potrebbero tornare utili per la regolamentazione dell’IA anche in altri settori magari maggiormente «sensibili».

Queste opportunità non sembrano al momento colte adeguatamente. Tra i primissimi approcci registrati, occorre certamente menzionare il Regolamento FIFA sulla protezione dei dati personali [59], dedicato quindi non all’IA nello specifico ma comunque a profili che – come visto con l’analisi del GDPR – inevitabilmente arrivano a riguardare l’applicazione di queste tecnologie. Tuttavia, questo Regolamento presenta indubbie debolezze. Da un lato, si limita perlopiù a riprodurre alcuni principi e disposizioni del GDPR, testimoniando il fatto che la normativa unionale, tanto quanto la giurisprudenza, sembra costituire al momento il «faro» per le istituzioni sportive anche operanti a livello internazionale [60]. D’altro lato, le disposizioni del Regolamento restano applicabili per i soli trattamenti di dati operati dalla FIFA o per conto di essa. Se questo tentativo appare ancora eccessivamente timido, rivela comunque l’intenzione delle istituzioni sportive di vertice di approfondire le tematiche connesse all’utilizzo delle nuove tecnologie nel mondo dello sport. Si tratta di un segnale che deve essere senza dubbio incoraggiato. Per raggiungere un equilibrio tra i benefici e rischi apportati dall’IA, è necessaria infatti la partecipazione attiva di tutti i portatori di interessi: solo in questo modo, anche nel mondo dello sport, sarà possibile costruire quello che la stessa UE definisce «ecosistema di fiducia» per l’IA [61], ossia un ambiente in cui la società civile possa assumere la consapevolezza dei benefici e dei rischi che comporta l’evoluzione tecnologica e possa confidare che questa si sviluppi sempre nel solco del rispetto dei diritti fondamentali.


NOTE

[1] D. Araújo et al., Artificial Intelligence in sport performance analysis, New York, 2021; R. Beal, T.J. Norman, S.D. Ramchurn, Artificial intelligence for team sports: a survey, in The Knowledge Engineering Review, 34, 2019; C. Li, J. Cui, Intelligent sports training system based on artificial intelligence and big data, in Mobile Information Systems 2021, 2021; J. Mosele, Artificial intelligence in the sport industry, Milano, 2018; R.R. Nadikattu, Implementation of new ways of artificial intelligence in sports, in Journal of Xidian University 14, 5, 2020, pp. 5983-5997; D.C. Suman, Artificial Intelligence in Sport: An Ethical Issue, in Unity Journal, 3, 1, 2022, pp. 27-39; B. Torgler, Big data, artificial intelligence, and quantum computing in sports, Cham, 2020, pp. 153-173.

[2] Come noto, a partire dal Trattato di Lisbona, i Trattati europei impegnano l’Unione «alla promozione dei profili europei dello sport, tenendo conto delle sue specificità, delle sue strutture fondate sul volontariato e della sua funzione sociale ed educativa» (art. 165 TFUE, par. 1, corsivi aggiunti). Per una ricostruzione del percorso che ha portato all’elaborazione dell’attuale art. 165 TFUE, cfr. S. Bastianon, B. Nascimbene, Diritto europeo dello sport. L’Europa in movimento. Raccolta di testi e documenti, Torino, 2011; S. Weatherill, EU Sports Law: the effect of the Lisbon Treaty, in Oxford Legal Studies Research Paper, 3, 2011, pp. 1-16; R. Parrish, The Birth of European Union Sports Law, in Entertainment and Sports Law Journal, 2, 2016, pp. 25 ss.: tra i più favorevoli all’introduzione nei Trattati di disposizioni specifiche sullo sport sia le Istituzioni europee sia il Comitato olimpico europeo; più scettiche alcune federazioni europee (su tutte, l’UEFA) e alcuni Stati membri (Gran Bretagna, Svezia e Danimarca).

[3] Nel panorama mondiale non si registrano tentativi di regolamentazione del fenomeno IA come quello dell’UE. Le organizzazioni internazionali si sono attivate sul punto, ma non sono andate oltre la stesura di linee guida e principi etici: cfr. OCSE, Recommendation of the Council on Artificial Intelligence, approvata il 22 maggio 2019, OECD/LEGAL/0449; UNESCO, Ad Hoc Expert Group (AHEG) for the preparation of a draft text of a recommendation on the ethics of artificial intelligence, SHS/BIO/AHEG-AI/2020/4 REV.2, Parigi, 7 settembre 2020; Consiglio d’Europa, Unboxing AI: 10 steps to protect human rights – Recommendation of the Commissioner for Human Rights, maggio 2019). In dottrina cfr. A. JOBIN, M. IENCA, E. VAYENA, Artificial Intelligence: the global landscape of ethics guidelines, in Nature Machine Intelligence, 1, 2019, pp. 389-399; T. HAGENDORFF, The Ethics of AI Ethics: An Evaluation of Guidelines, in Minds and Machines, 30, 2020, pp. 99-120; L. Parona, Prospettive europee e internazionali di regolazione dell’intelligenza artificiale tra principi etici, soft law e self regulation, in Riv. reg. merc., 1, 2020, pp. 70 ss.

A livello statale, invece, i maggiori competitor dell’UE, ossia USA e Cina, lasciano ancora ampio spazio alla self-regulation, se non addirittura ad una «no-regulation»: benché non manchino prese di posizione sul tema da parte delle istituzioni pubbliche (cfr. per gli USA: Executive Order n. 13859, 11 febbraio 2019, Maintaining American Leadership in Artificial Intelligence; per la Cina:, National New Generation Artificial Intelligence Governance Expert Committee, Governance Principles for a New Generation of Artificial Intelligence: Develop Responsible Artificial Intelligence, 17 giugno 2019), non sembra ancora maturata l’intenzione di intervenire seriamente con l’introduzione di una disciplina regolatoria. In dottrina cfr. E. Chiti, Divergenti? Le strategie di Unione europea e Stati Uniti in materia di intelligenza artificiale, in Riv. reg. merc., 1, 2020, pp. 29-50; C. Cath, S. Wachter, B. Mittelstadt, M. Taddeo, L. Floridi, Artificial Intelligence and the ‘Good Society’: the US, EU, and UK approach, in Science and Engineering Ethics, 24, 2017; H. Roberts, J. Cowls, J. Morley et al., The Chinese approach to artificial intelligence: an analysis of policy, ethics, and regulation, in AI & Soc., 36, 2021, pp. 59-77.

[4] L’attenzione dedicata dalle Istituzioni dell’UE al fenomeno sportivo è in costante crescita. Si segnala, recentemente, Parlamento europeo, Risoluzione sulla politica dell’UE in materia di sport: valutazioni e possibili vie da seguire, 23 novembre 2021 (2021/20158(INI)), prontamente approvata dal Consiglio europeo il 30 novembre 2021, che tenta di delineare per la prima volta un «modello europeo dello sport».

[5] Per un quadro generale sui termini della questione, cfr. J. Mccarthy, M.L. Minsky, N. Rochester, C.E. Shannon, A proposal for the Dartmouth summer research project on artificial intelligence, in http://www‑formal.stanford.edu/jmc/history/dartmouth/dartmouth.html, 31 agosto 1955; S. Russell, P. Norvig, Artificial Intelligence: A Modern Approach, Englewood Cliffs. N.J., 2020, p. 17; S. Bringsjord, N.S. Govindarajulu, Artificial Intelligence, in The Stanford Encyclopedia of Philosophy (Summer 2020 Edition), in plato.stanford.edu/archives/sum2020/entries/artificial-intelligence, 2020.

[6] AI Act, art. 3, n. 1.

[7] Per vari contributi in questo senso, cfr. U. Ruffolo (a cura di), Intelligenza artificiale e responsabilità, Milano, 2017; Id. (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, Milano, 2020; A. D’Aloia, Intelligenza artificiale e diritto, Milano, 2021.

[8] AI Act, All. I: «Tecniche e approcci di intelligenza artificiale: a) approcci di apprendimento automatico, compresi l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento per rinforzo, con utilizzo di un’ampia gamma di metodi, tra cui l’apprendimento profondo (deep learning); b) approcci basati sulla logica e approcci basati sulla conoscenza, compresi la rappresentazione della conoscenza, la programmazione induttiva (logica), le basi di conoscenze, i motori inferenziali e deduttivi, il ragionamento (simbolico) e i sistemi esperti; c) approcci statistici, stima bayesiana, metodi di ricerca e ottimizzazione».

[9] Cfr. E. Ilkou, M. Koutraki, Symbolic Vs Sub-symbolic AI Methods: Friends or Enemies?, in CIKM (Workshops), 2020 e bibliografia ivi citata.

[10] Proprio per questo motivo gli studi stanno ora convergendo verso la c.d. Explainable Artificial Intelligence (XAI), che, tentando di superare il classico problema della insondabile «black box», consentirebbe, quale che sia l’approccio o la tecnica utilizzata per lo sviluppo dell’IA, di ottenere adeguati livelli di explainability se non per gli utenti quantomeno per gli sviluppatori. Cfr., ex multis, A. Barredo Arrieta et al., Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI, in Information Fusion, 58, 2020, pp. 82-115.

[11] A cavallo del nuovo millennio, si ottenevano i primi successi: nel 1997, la macchina Deep Blue riusciva a battere il campione mondiale di scacchi Garry Kasparov; tra il 2005 e il 2007 i veicoli a guida autonoma riuscivano a primeggiare in gare automobilistiche in percorsi extraurbani e poi urbani. Recentemente, hanno fatto notizia il successo di Google AlphaGo, che ha battuto nel 2016 e nel 2017 i campioni mondiali del gioco Go e le capacità di Libratus, che è riuscito ad avere la meglio sui migliori giocatori del mondo di poker Texas Hold’em (2017).

[12] Cfr. per le professioni legali, specialmente quella del giudice, le considerazioni di U. Ruffolo, La machina sapiens come “avvocato generale” ed il primato del giudice umano: una proposta di interazione virtuosa, in Id. (a cura di), XXVI lezioni di diritto dell’intelligenza artificiale, Torino, 2021, pp. 205-225.

[13] Cfr., con riferimento alle decisioni automatizzate in generale, per un quadro di insieme E. Falletti, Decisioni automatizzate e diritto alla spiegazione: alcune riflessioni comparatistiche, in Dir. informatica, 2, 2020, pp. 169-206. Per l’Italia, cfr. F. Laviola, Algoritmico, troppo algoritmico: decisioni amministrative automatizzate, protezione dei dati personali e tutela delle libertà dei cittadini alla luce della più recente giurisprudenza amministrativa, in BioLaw Journal – Rivista di BioDiritto, 3, 2020, pp. 389-440.

[14] In realtà, il punto fermo posto dalle Istituzioni dell’UE, dopo la barcollante Risoluzione del Parlamento del 2017 che paventava la possibile introduzione di una «personalità elettronica», è il principio per cui la responsabilità deve sempre essere ripartita tra soggetti umani, dovendosi escludere eventuali ipotesi di responsabilità diretta della macchina. Cfr. M. Bassini, L. Liguori, O. Pollicino, Sistemi di Intelligenza Artificiale, responsabilità e accountability. Verso nuovi paradigmi?, in F. Pizzetti (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, Torino, 2018, pp. 333-371. Al contrario, ma consequenzialmente, in materia di introduzione di ipotesi di responsabilità oggettiva, i documenti unionali si dimostrano più possibilisti: cfr. Gruppo indipendente di esperti di alto livello sull’intelligenza artificiale (AI HLEG), Orientamenti etici per un’IA affidabile, in https://digital-strategy.ec.europa.eu/en/library/
ethics-guidelines-trustworthy-ai, 8 aprile 2019, p. 27.

[15] A fronte di un elevato (e crescente) numero di contributi sulle potenzialità dell’IA nello sport (cfr. supra, nota 1), sono più recenti e sporadici studi si interrogano sulle interazioni del fenomeno con la privacy o altri profili giuridici. Cfr. C.A. Flanagan, Stats Entertainment: The Legal and Regulatory Issues Arising from the Data Analytics Movement in Association Football. Part One: The Development of Data Analytics and Property Rights, in Entertainment and Sports Law Journal, 19, 1, 2021, pp. 1-14; Id., Stats Entertainment: The Legal and Regulatory Issues Arising from the Data Analytics Movement in Association Football. Part Two: Data Privacy, the Broader Legal Context, and Conclusions on the Legal Aspects of Data Analytics in Football, in Entertainment and Sports Law Journal, 20, 1, 2021, pp. 1-16; M. Fierens, J. de Bruyne, Artificial intelligence in sports – the legal and ethical issues at play, in LawInSport (online), 2020.

[16] Cfr. A. Carrio Sampredo, Artificial intelligence in sport can potentially undermine athlete rights, in playthegame.org, 26 gennaio 2022; Id., The case of AI in sport: Some ethical concerns at play, in Diagoras: International Academic Journal on Olympic Studies, 5, 2021, pp. 18-29.

[17] Regolamento (UE) 2016/679 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati, 27 aprile 2016 (General Data Protection Regulation, di seguito GDPR). Come noto, il Regolamento, entrato in vigore il 24 maggio 2016, è diventato operativo a partire dal 25 maggio 2018. Per le influenze del GDPR in materia di IA, cfr. F. Pizzetti, La protezione dei dati personali e la sfida dell’Intelligenza Artificiale, in Id. (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, cit., pp. 5-189; G. Mobilio, L’intelligenza artificiale e le regole giuridiche alla prova: il caso paradigmatico del GDPR, in federalismi.it, 16, 2020, pp. 266-298; F. Sovrano, F. Vitali, M. Palmirani, Modelling GDPR-Compliant Explanations for Trustworthy AI, in A. Kő, E. Francesconi, G. Kotsis, A. Tjoa, I. Khalil (a cura di), Electronic Government and the Information Systems Perspective, Cham, 2020, pp. 219-233; D. Amram, Il ruolo del GDPR nella progettazione della strategia europea sull’intelligenza artificiale: le potenzialità legislative di una sineddoche ricorrente, in Opinio Juris in Comparatione, 1, 2020, pp. 73-95; J. Andraško, M. Mesarčík, O. Hamuľák, The regulatory intersections between artificial intelligence, data protection and cyber security: challenges and opportunities for the EU legal framework, in AI and Soc., 36, 2021, pp. 623-636; G. Finocchiaro, Riflessioni su intelligenza artificiale e protezione dei dati personali, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, i diritti l’etica, cit., pp. 237-247.

[18] Il titolare del trattamento, ossia il soggetto «[…] che, singolarmente o insieme ad altri, determina le finalità e i mezzi del trattamento di dati personali» (art. 4, n. 7, GDPR), ha l’obbligo di mettere «in atto misure tecniche e organizzative adeguate […] volte ad attuare in modo efficace i principi di protezione dei dati […] e a integrare nel trattamento le necessarie garanzie al fine di soddisfare i requisiti del presente regolamento e tutelare i diritti degli interessati» (art. 25, par. 1, GDPR); inoltre, «mette in atto misure tecniche e organizzative adeguate per garantire che siano trattati, per impostazione predefinita, solo i dati personali necessari per ogni specifica finalità del trattamento» (art. 25, par. 2, GDPR).

I trattamenti di dati da parte del responsabile del trattamento, ossia il soggetto «[…] che tratta dati personali per conto del titolare del trattamento» (art. 4, n. 8, GDPR), devono invece essere «disciplinati da un contratto o da altro atto giuridico […] che vincoli il responsabile del trattamento al titolare del trattamento e che stipuli la materia disciplinata e la durata del trattamento, la natura e la finalità del trattamento, il tipo di dati personali e le categorie di interessati, gli obblighi e i diritti del titolare del trattamento» (art. 28, par. 3, GDPR).

Cfr., in dottrina, B. Van Alsenoy, Data Protection Law in the EU: Roles, Responsibilities and Liability, Leuven, 2019.

[19] Occorre ricordare come, in caso di contitolarità del trattamento, il GDPR imponga di determinare in modo trasparente, mediante un accordo interno tra i contitolari «le rispettive responsabilità, […] con particolare riguardo all’esercizio dei diritti dell’interessato, e le rispettive funzioni di comunicazione delle informazioni» imposte dal Regolamento (art. 26, par. 1, GDPR). Il contenuto essenziale di tale accordo è messo a disposizione dell’interessato (art. 26, par. 2, GDPR) e quest’ultimo «può esercitare i propri diritti […] nei confronti di e contro ciascun titolare del trattamento» (art. 26, par. 3, GDPR).

[20] Art. 6, par. 1, lett. b), GDPR.

[21] EDPB, Guidelines 2/2019 on the processing of personal data under Article 6(1)(b) GDPR in the context of the provision of online services to data subjects, 8 October 2019, (Version 2.0), pp. 8-9.

[22] Art. 6, par. 1, lett. f), GDPR.

[23] Con l’entrata in vigore del GDPR, il Gruppo di lavoro art. 29 (WP29) è stato sostituito dal Comitato europeo per la protezione dei dati (EDPB). Il parere cui si fa riferimento (Opinion 06/2014 on the notion of legitimate interests of the data controller under Article 7 of Directive 95/46/EC, 844/14/EN WP 217, 9 aprile 2014, p. 23) aveva come oggetto l’art. 7, par. 1, lett. f), della direttiva 95/46/CE, sostituita interamente dal GDPR, che presentava lo stesso contenuto dell’attuale art. 6, par. 1, lett. f), GDPR.

[24] Art. 6, par. 1, lett. a), GDPR.

[25] Considerando 43 e art. 7, par. 4, GDPR. Ai sensi dell’art. 4, n. 11, il consenso deve essere «libero, specifico, informato e inequivocabile».

[26] Per alcuni autori, al di là dei rapporti tra società e atleta, un consenso liberamente prestato sarebbe comunque difficilmente raggiungibile nel contesto sportivo a causa della natura «monopolistica» degli organi sportivi di governo che organizzano eventi sportivi. Cfr. B. Hessert, Personal real-time sports performance information, in Jusletter, 17 febbraio 2020.

[27] Art. 9, par. 2, GDPR.

[28] Art. 22, par. 1, GDPR: «L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona».

[29] Per un quadro sul dibattito intorno all’art. 22 GDPR, con opinioni opposte, cfr. S. Wachter, B. Mittelstadt, L. Floridi, Why a Right to Explanation of Atutomated Decision-Making Does Not Exist in the General Data Protection Regulation, in International Data Privacy Law, 7, 2, 2017, pp. 76 ss.; G. Malgieri, G. Comandè, Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation, in International Data Privacy Law, 7, 4, pp. 243 ss.

[30] Proposta di Regolamento che stabilisce regole armonizzate sull’Intelligenza Artificiale (Legge sull’Intelligenza Artificiale) e modifica alcuni atti legislativi dell’Unione, 21 aprile 2021, COM(2021) 206 final.

Per un primo commento in dottrina, cfr. C. Casonato, B. Marchetti, Prime osservazioni sulla proposta di Regolamento dell’Unione europea in materia di intelligenza artificiale, in BioLaw Journal – Rivista di BioDiritto, 3, 2021, pp. 415-437.

[31] Parlamento europeo, Risoluzione del 16 febbraio 2017 recante “raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica”, 2015/2103(INL).

[32] Nel 2018 la Commissione europea ha avviato un processo per selezionare un gruppo di esperti in materia di IA provenienti dalla società civile, dal mondo accademico e dall’industria. Di conseguenza, nel giugno 2018 è stato creato il gruppo di esperti di alto livello sull’intelligenza artificiale (AI HLEG) con un totale di 52 persone provenienti da diversi paesi dell’UE. Il Gruppo ha reso una serie di documenti essenziali per il prosieguo del percorso unionale, tra cui menzione di rilievo va accordata al documento denominato Orientamenti etici per un’IA affidabile, pubblicato ad aprile 2019 e già precedentemente citato.

[33] Commissione europea, Libro bianco sull’intelligenza artificiale – Un approccio europeo all’ec­cellenza e alla fiducia, Bruxelles, 19 febbraio 2020, COM(2020) 65 final.

[34] Per approfondire le tappe del percorso regolatorio dell’UE, cfr. A. Amidei, La governance dell’In­telligenza Artificiale: profili e prospettive di diritto dell’Unione Europea, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, cit., pp. 571-590; S. Larsson, AI in the EU: Ethical Guidelines as a Governance Tool, in The European Union and the Technology Shift, 2021, pp. 85-111; F. Rodi, Gli interventi dell’Unione europea in materia di intelligenza artificiale e robotica: problemi e prospettive, in G. Alpa (a cura di), Diritto e intelligenza artificiale, Pisa, 2020, pp. 187-210.

[35] A riprova di ciò, alle raccomandazioni della Commissione e ai documenti dell’AI HLEG, si è aggiunta di recente un nuovo atto di soft law del Parlamento europeo, che è tornato a fare risentire la sua voce in tema di IA. Cfr. Parlamento europeo, Risoluzione sull’intelligenza artificiale in un’era digitale, 3 maggio 2022, 2020/2266(INI).

[36] AI Act, art. 53.

[37] Così, AI Act, Relazione introduttiva, pp. 7-8, punto 2.4: «[…] le disposizioni del regolamento non sono eccessivamente prescrittive e lasciano spazio a diversi livelli di azione da parte degli Stati membri in relazione ad aspetti che non pregiudicano il conseguimento degli obiettivi dell’iniziativa».

[38] Innovando la dicotomia sistemi ad alto rischio/basso rischio elaborata in sede di consultazione sul Libro bianco, la proposta introduce una categoria intermedia distinguendo i sistemi a «rischio basso» da quelli a «rischio minimo». Tuttavia, in questo lavoro sono indicati come sistemi a basso rischio tutti i sistemi non ad alto rischio, potendosi tralasciare ai nostri fini la categoria intermedia che ricomprende sistemi di IA «destinati a interagire con le persone fisiche», per i quali il Regolamento stabilisce determinati obblighi di trasparenza (art. 52).

[39] Per tutti questi aspetti in questa sede si rimanda direttamente all’AI Act, artt. 6-51, e alla prima bibliografia di commento sopra citata.

[40] AI Act, All. III.

[41] Ivi, n. 8, lett. a).

[42] AI Act, art. 7.

[43] AI Act, All. III, n. 4, lett. a).

[44] AI Act, All. III, n. 4, lett. b).

[45] Cfr. V.L. Raposo, Ex machina: preliminary critical assessment of the European Draft Act on artificial intelligence, in International Journal of Law and Information Technology, 30, 1, pp. 88-109.

[46] Cfr. W. Barfield, U. Pagallo, Law and Artificial Intelligence, Cheltenham, 2020; D. Berkich, M.V. D’Alfonso (a cura di), On the Cognitive, Ethical and Scientific Dimensions of Artificial Intelligence, Dordrecht, 2019; L. Floridi et al., AI4People – An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations, in Minds and Machines, 28, 4, 2018, p. 689 ss.; S. Wojciech et al., Explainable AI: Interpreting, Explaining and Visualizing Deep Learning, Berlin, 2019.

[47] AI Act, artt. 14-15.

[48] Cfr. K. Rathi, P. Somani, A.V. Koul, K.S. Manu, Applications of artificial intelligence in the game of football: The global perspective, in Researchers World, 11, 2, 2020, pp. 18-29.

[49] Il Gruppo di esperti nominato dall’UE ha distinto, per esempio, tra tre diverse tecniche di sorveglianza umana: a) intervento umano (human-in-the-loop – HITL), che prevede la possibilità di intervento umano in ogni ciclo decisionale del sistema, in molti casi né possibile né auspicabile; b) supervisione umana (human-on-the-loop – HOTL), prevede l’intervento umano durante il ciclo di progettazione del sistema e il monitoraggio del funzionamento del sistema; c) controllo umano (human-in-command – HIC), che prevede il controllo dell’attività del sistema di IA nel suo complesso (compresi i suoi effetti generali a livello economico, sociale, giuridico ed etico) e la capacità di decidere quando e come utilizzare il sistema in qualsiasi particolare situazione. Cfr. Gruppo indipendente di esperti di alto livello sull’intelligenza artificiale (AI HLEG), Orientamenti etici per un’IA affidabile, cit., p. 65.

[50] AI Act, art. 69, par. 3.

[51] Cfr. M. Vellano, Il CIO e il governo transnazionale dello sport, in questa Rivista, 2, 2017, pp. 243-257.

[52] Cfr. sul tema, F. Latty, La lex sportiva: Recherche sur le droit transnational, Paris, 2007; S. Bastianon, La lex sportiva, in Osservatorio sulle fonti, 1, 2021, pp. 357-366; A. Duval, What lex sportiva tells you about transnational law, in P. Zumbansen (a cura di), The Many Lives of Transnational Law: Critical Engagements with Jessup’s Bold Proposal, Cambridge, 2020, pp. 269-293; A. Duval, Transnational Sports Law: The Living Lex Sportiva, in Asser Research Paper, 6, 2020, pp. 1-23; A. Duval, Lex sportiva: a Playground for Transnational Law, in European Law Journal, 19, 6, 2013, pp. 822-842; L. Casini, Il Diritto Globale dello Sport, Milano, 2010.

[53] Dal 2004 la Carta olimpica si autoqualifica, nel preambolo, «as a basic instrument of a constitutional nature». Anche molti commentatori si riferiscono abitualmente alla Carta Olimpica come a un documento avente natura costituzionale. Cfr. F. Latty, La lex sportiva: Recherche sur le droit transnational, cit., pp. 171-172, in cui si parla di «constitution mondiale du sport»; C.J. Tams, Olympische Spiele – Heraus-forderungen und Fragen aus Sicht des internationalen Rechts, in W. Höfling, J. Horst, M. Nolte (a cura di), Olympische Spiele, Tubinga, 2013, pp. 59-60: si utilizza l’espressione «Verfassungsdokumente»; A. Mestre, The Law of the Olympic Games, Den Haag, 2009, pp. 11-12: «similarites with a Constitution»; C. Vedder, The International Olympic Committee: An Advanced Non-Governmental Organization and the International Law, in German Yearbook of International Law, 27, 1984, p. 256: «real constitution of the IOC».

[54] Il Principio fondamentale dell’Olimpismo n. 5, che stabilisce il principio di autonomia, trova spazio nella Carta dal 2011, sebbene l’autonomia delle Federazioni internazionali e dei Comitati olimpici nazionali fosse già rimarcata agli artt. 26, 27 e 28 (oggi artt. 25, 26 e 27). La «neutralità politica» delle organizzazioni sportive è stata esplicitata nel testo della Carta soltanto con l’ultima modificata del Principio n. 5, avvenuta nel 2017. Si riporta il testo del Principio n. 5 attualmente vigente: «Recognising that sport occurs within the framework of society, sports organisations within the Olympic Movement shall apply political neutrality. They have the rights and obligations of autonomy, which include freely establishing and controlling the rules of sport, determining the structure and governance of their organisations, enjoying the right of elections free from any outside influence and the responsibility for ensuring that principles of good governance be applied».

Per un commento sulle contraddizioni scaturenti dal principio di neutralità politica, cfr. L. Melica, La presunta “neutralità” del diritto transnazionale dello sport, in Diritto dello Sport, 2, 2, 2021.

[55] Sul ruolo del TAS, cfr. A. Duval, Seamstress of transnational law: How the Court of Arbitration for Sport weaves the lex sportiva, in Asser Research Paper, 8, 2020, pp. 8-11; A. Duval, The Court of Arbitration for Sport and EU Law: Chronicle of an Encounter, in Maastricht Journal of European and Comparative Law, 22, 2, 2015, pp. 224-255; J. Lindholm, The Court of Arbitration for Sport and Its Jurisprudence: An Empirical Inquiry into Lex Sportiva, Den Haag, 2019; S. Weatherill, Principle and Practice in EU Sports Law, Oxford, 2017; L. Casini, The Making of a Lex Sportiva by the Court of Arbitration for Sport, in German Law Journal, 12, 5, 2011, pp. 1317-1340.

[56] Cfr. L. Melica, Sport e “diritti” in Italia e nel mondo, Bologna, 2022; G.G. Carboni, L’ordi­namento sportivo italiano nel diritto comparato, in federalismi.it, 12, 2021, pp. 49-50; D. Rapacciuolo, La riforma italiana dello sport fra critiche, paventate illegittimità, paure e best practices, in Rass. dir. econom. dello sport, 2, 2019, pp. 9-13.; P. Sandulli, Lo sport italiano merita una riforma organica, in Rass. dir. econom. dello sport, 3, 2018, pp. 9-19.

[57] Corte EDU, Mutu e Pechstein c. Svizzera, nn. 40575/10 e 67474/10, 2 ottobre 2018. Cfr. A. Merone, Arbitrato sportivo internazionale e garanzie del giusto processo, nota a Corte EDU, 2 ottobre 2018, in questa Rivista, 1, 2020, pp. 87-123; L. Freeburn, Forced Arbitration and Regulatory Power in International Sport-Implications of the Judgment of the European Court of Human Rights in Pechstein and Mutu v. Switzerland, in Marq. Sports L. Rev., 31, 2020, pp. 287 ss.; P. Marzolini, D. Durante, Legittimità del Tribunale Arbitrale dello Sport: game, set, match? La recente giurisprudenza del Tribunale federale svizzero e della Corte Europea dei Diritti dell’Uomo, in Rivista dell’arbitrato, 4, 2018, pp. 655-677.

[58] Corte giust., TopFit e.V. e Daniele Biffi c. Deutscher Leichtathletikverband e V., C-22/18, 13 giugno 2019. Cfr. S. Bastianon, Atleti dilettanti, campioni nazionali e cittadinanza europea: quid novi sub sole?, in questa Rivista, 2, 2019, pp. 129-158; A. Ericsson, EU Law and the Discretion of Private National Decision-Makers in Light of the Court’s Judgement in Case C-22/18 TopFit and Biffi, in Nordic Journal of European Law, 3, 2, 2020, pp. 82-94; R. Parrish, J. Lindholm, Horizontal direct effect of Union citizenship and the evolving sporting exception: TopFit, in Common market law review, 57, 4, 2020, pp. 1283-1304.

[59] Cfr. J. Bellamy, An overview of FIFA’s new data protection regulations, in LawInSport (online), 2020.

[60] Secondo S. Weatherill, Never let a good fiasco go to waste: why and how the governance of European football should be reformed after the demise of the ‘SuperLeague’, in EU Law Analysis, 2021: «the economic centrality of Europe to many, if not all, sports means that in practice the need to adjust practices to comply with EU law sometimes entails that adjustment operates more widely. EU’s norms become global norms».

[61] Così in AI Act, Relazione introduttiva, p. 1, riprendendo l’espressione contenuta nel Libro bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, cit.