[ad_1]
Une organisation à but non lucratif créée par un ancien chauffeur d’Uber qui a contesté avec succès la classification erronée du statut d’emploi des chauffeurs au Royaume-Uni par le géant du transport en commun, a publié un rapport opportun plaidant en faveur d’une surveillance appropriée des algorithmes et des données utilisés pour surveiller et contrôler le travail des travailleurs de la plate-forme.
Opportun — étant donné que l’Union européenne vient de proposer une législation visant à améliorer la transparence des algorithmes sur les plateformes de travail numérique en tant que levier pour lutter contre les conditions de travail problématiques.
Dans le même temps, les législateurs du Royaume-Uni – qui siège désormais à l’extérieur du bloc – se concertent sur l’abaissement des normes nationales de protection des données. Y compris, potentiellement, la suppression des droits existants associés à la prise de décision automatisée ; et la suppression de l’obligation de procéder à une analyse d’impact sur la protection des données avant de traiter des données personnelles sensibles – ce que l’organisation à but non lucratif met en garde reviendrait à « un coup de marteau pour les travailleurs précaires qui sont déjà depuis longtemps privés de leurs droits fondamentaux en matière d’emploi qui pourraient désormais être privé des moyens de demander des comptes aux employeurs malhonnêtes », comme le dit le rapport.
Le rapport, co-écrit par le chercheur Cansu Safak et l’ancien chauffeur Uber James Farrer, qui a fondé le Worker Information Exchange (WIF), est intitulé Géré par des bots : exploitation axée sur les données dans l’économie du gig.
Il contient un certain nombre d’études de cas illustrant les obstacles et l’obscurcissement auxquels sont confrontés les travailleurs du secteur régional cherchant à obtenir des droits d’accès aux données pour essayer d’évaluer l’équité des décisions fondées sur les données des plateformes les concernant et leur travail (jusqu’à et y compris la résiliation de leur capacité à travailler sur la plate-forme).
Les exemples discutés incluent les contrôles de reconnaissance faciale « antifraude » qui semblent biaisés en fonction de la race ; les conducteurs sont informés de grèves de fraude sur leurs comptes sans être informés de manière claire et immédiate de ce qui déclenche des avertissements pouvant également conduire à la résiliation de leur compte ; et de nombreux cas de pilotes non fournis…
Voir la source de cette publication
[ad_2]