Con una recente ordinanza, il Tribunale di Bologna ha dichiarato discriminatorio l’algoritmo (denominato Frank) utilizzato dai lavoratori della nota compagnia di consegne Deliveroo per accedere alle sessioni di lavoro tramite la piattaforma digitale della società. Il provvedimento ha condannando la società non solo a rimuovere gli effetti discriminatori ma anche al risarcimento del danno non patrimoniale subito dai lavoratori.

Oltre ad innegabili risvolti interessanti da un punto di vista giuslavoristico, la pronuncia fornisce anche l’occasione di riflettere sulla natura degli algoritmi e sulla profilazione dei soggetti all’interno di piattaforme digitali.

Per questo motivo in questa sede ci concentreremo sull’analisi del primo aspetto, mentre un articolo specifico tratterà in modo specifico dei risvolti inerenti al diritto alla privacy e al GDPR.

Alla base dell’utilizzo degli algoritmi, infatti, oltre alla garanzia di un maggiore guadagno in termini di potenza di calcolo e di efficienza nell’elaborazione di grandi quantità di dati, c’è anche una presunzione di neutralità rispetto alle decisioni umane caratterizzate, per loro natura, da margini più elevati di fallibilità e di opinabilità.

Tuttavia, la decisione del Tribunale di Bologna contesta la presupposta neutralità degli algoritmi, che dovrebbero operare unicamente sulla base di dati e logiche razionali, richiamandone invece le criticità, in particolar modo quelle inerenti a mancanza di trasparenza e comprensibilità.

Nel caso di specie l’organizzazione del lavoro nella piattaforma di food delivery avveniva tramite slots, fasce orarie nelle quali l’algoritmo, in relazione al numero di ordini medio, individuava il numero di riders necessari a coprire efficacemente tutte le consegne.

Le tipologie di slots disponibili per i lavoratori erano due: uno libero, ove ognuno si prenotava in ordine cronologico sino a esaurimento dei posti per quella determinata fascia oraria, e uno vincolato, in cui la precedenza veniva data ai riders che si erano mostrati meritevoli in relazione al rating dato dall’utenza e/o in relazione alle statistiche che venivano raccolte dall’algoritmo stesso.

Ai soggetti più affidabili secondo la piattaforma, veniva riconosciuta una sorta di prelazione sulla scelta e sulla prenotazione degli slots ed è proprio su quest’ultima modalità di organizzazione dell’accesso al lavoro che si è focalizzata l’attenzione del Giudice bolognese. L’algoritmo, infatti, non faceva nessuna distinzione sulla tipologia di assenza del rider, che poteva ad esempio essere legata ad uno stato di morbilità, ad impegni sindacali, o ad altre situazioni in cui l’assenza, e quindi il mancato atto di provare ad inserirsi in un determinato slot, erano concordate con l’azienda e quindi non interpretabili in maniera negativa.

Nella pronuncia viene espressamente fatto riferimento alla cecità dell’algoritmo rispetto alla valutazione di tutte le situazioni sopra menzionate, e viene messa in correlazione questa impostazione errata con la che difficoltà a comprendere fino in fondo il funzionamento dell’argomento e con la possibilità di verificare in maniera asseverata a posteriori le motivazioni alla base delle decisioni prese dall’algoritmo stesso.

In base a tali considerazioni, il Tribunale ha ravvisato quindi l’opacità dell’algoritmo e delle relative modalità di organizzazione del lavoro, riscontrando il carattere discriminatorio dell’organizzazione del lavoro che si basava su tale tecnologia.

Il management di Deliveroo Italy ha già provveduto ad informare che Frank è stato già sostituito da un altro algoritmo, e che la decisione non avrà impatto sul loro modello di business, tuttavia, a conclusione di questa prima parte, è interessante rilevare come anche la pronuncia in esame si inserisce in una strada già intrapresa anche in altri paesi (ad esempio USA e UK): non è possibile nascondere una decisione discriminatoria dietro un utilizzo non chiaro di uno strumento tecnologico.