Passer au contenu
[X]

Analyse

Ximena Mejía Gutiérrez

La position de l'Amérique latine dans le débat sur la régulation de l'Intelligence Artificielle (IA) : qui fixe les règles?

- L'Amérique latine est laissée de côté dans le débat éthique autour de l'utilisation de l'IA dans les activités productives. Quelles conséquences ce retard entraînera-t-il?

La position de l'Amérique latine dans le débat sur la régulation de l'Intelligence Artificielle (IA) : qui fixe les règles?

Le débat éthique entourant le développement de l'intelligence artificielle (IA) n'est pas nouveau et son origine remonte aux années 1980 aux États-Unis. Entre 1982 et 1990, un total de 400 millions de dollars a été investi afin de révolutionner la dynamique du "deep learning" [1] et l'imitation du processus décisionnel humain par des systèmes automatisés [2\ ]. Cela a motivé l'émergence d'une série de questions morales et éthiques sur l'impact de ladite technologie dans la vie quotidienne des êtres humains et l'apogée d'un tel débat peut être placée en l'année 2016 [3]. C'est à cette époque que les États, les entités privées et les organisations de la société civile commencent à produire une série de publications sur leur position sur la conception et la mise en œuvre de l'IA, dans le but d'établir les principaux points qui doivent être réglementés pour éviter les violations des droits de l'homme.

Cependant, toutes les régions du monde n'ont pas eu l'occasion de contribuer, dans la même mesure, à établir leurs principales préoccupations concernant l'application de cette technologie. En tant que Latino-Américains et êtres humains vulnérables aux impacts de l'IA, il est nécessaire de se demander quel rôle l'Amérique latine (ALC) joue dans la définition du débat éthique sur la réglementation de l'intelligence artificielle aujourd'hui [4].

Bien que des pays comme le Mexique, le Brésil, l'Argentine, la Colombie, le Chili, la Colombie, l'Équateur, le Costa Rica, le Paraguay, le Pérou, la République dominicaine et Trinité-et-Tobago [5] aient enregistré des progrès significatifs en la matière, au niveau régional il Il n'y a pas de position dans laquelle les principes éthiques qui devraient régir l'utilisation de l'IA sont établis. Par conséquent, il est d'une importance vitale que les États de l'ALC assument l'engagement commun d'accroître leur participation à cette controverse, avec l'objectif que les documents contraignants qui seront élaborés à l'avenir intègrent la perspective latino-américaine. Pour cela, il est suggéré d'inclure dans leurs revendications les postulats de l'approche décoloniale critique, puisque c'est le principal apport théorique dudit territoire. De même, les États d'Amérique latine sont tenus de se coordonner pour donner la priorité à la protection des droits de l'homme des groupes les plus vulnérables face aux processus de traitement des données personnelles et d'aborder l'avenir de l'emploi dans la région à la lumière de l'essor des processus d'automatisation. .

En ce sens, les travaux de Jobin, Marcello et Vayena nous permettent de confirmer que les pays du Nord ouvrent la voie dans l'établissement des principaux problèmes éthiques entourant l'application de l'IA. Les chercheurs ont passé en revue le corpus existant de soft law [6] sur l'éthique de l'IA et, en termes de répartition géographique, les résultats montrent une représentation importante des pays les plus développés économiquement. Ensemble, les États-Unis (25,5 %) et le Royaume-Uni (15,5 %) représentent plus d'un tiers de tous les discours éthiques produits sur le sujet, suivis du Japon (4,8 %), de l'Allemagne, de la France et de la Finlande (chacun, représente 3,6%). À son tour, l'Union européenne montre également une participation importante à la délimitation du discours éthique de l'IA, puisque sur cette période, elle a généré 7,1 % de mécanismes de soft law, tandis que certains de ses États membres en ont publié 8,3 %. De leur côté, les pays d'Amérique latine et d'Afrique ainsi que plusieurs États asiatiques ne sont pas représentés indépendamment des organisations intergouvernementales telles que l'ONU [7].

Ce n'est pas seulement problématique en raison de la négligence des principes du pluralisme culturel et des exigences d'équité mondiale, mais aussi parce que celui qui définit les termes du débat a le pouvoir d'établir les problèmes prioritaires que les lois internationales aborderont pour réglementer cette technologie. qui ne correspondent pas nécessairement aux priorités de BAC. Les auteurs susmentionnés ont identifié l'existence de 11 principes éthiques parmi lesquels la promotion de la transparence, la non-malfaisance, la responsabilité et la vie privée prédominent. En général, l'application de tels postulats met l'accent sur la préservation de la vie privée, de la dignité, de l'autonomie et de la liberté individuelle ; c'est-à-dire que la caractérisation du débat se produit autour de la protection de l'individu contre la conception et l'application de cette technologie. Ces principes sont de la plus haute importance pour que les personnes reconnaissent leurs droits contre des entités privées qui, par exemple, utilisent leurs informations pour générer des revenus économiques par le biais de processus de traitement de données personnelles. Cependant, où se manifeste la responsabilité des États les plus développés et des grandes entités privées vis-à-vis de l'engagement à contribuer au développement économique des pays les plus vulnérables et de leurs populations ? Où est la nécessité de développer des stratégies inclusives pour la prévention des pertes d'emplois et la répartition inéquitable des avantages économiques que l'application de l'IA apportera, grâce à l'extraction d'informations auprès de groupes historiquement vulnérables ?

L'inclusion de l'approche décoloniale critique dans cette controverse permet de mettre sur la table la responsabilité des États les plus développés et des plus grandes organisations privées quant aux impacts négatifs de l'application de l'intelligence artificielle en Amérique latine, ceci afin de promouvoir la génération de stratégies inclusives qui atténuent ces conséquences sur la population latino-américaine. Ainsi, la notion de « colonialité du pouvoir » de Quijano permet de comprendre la continuité des dynamiques de pouvoir entre les pays les plus développés et ceux que l'on a dit « en développement » - à travers les processus historiques de dépossession, d'esclavage, d'appropriation et d'extraction des ressources, qui ont été au cœur de l'essor du monde moderne— [8]. Par conséquent, la colonialité est ce qui survit au colonialisme et, pour Maldonado Torres, cela implique la reproduction des hiérarchies économiques, géopolitiques, raciales et de genre, qui ont été générées comme outils de contrôle colonial [9]

De ce point de vue, la mise en œuvre de processus de traitement de données personnelles suppose une nouvelle forme de colonialité du pouvoir, puisque les organisations chargées de mettre en œuvre ces processus convertissent n'importe quel aspect de la vie des personnes en information et, en même temps, le temps, il devient une marchandise [dix]. Ce qui est préoccupant ici, c'est que, tout comme aux XVIe, XVIIe, XVIIIe et XIXe siècles où les puissances coloniales catégorisaient et excluaient les individus en fonction de facteurs tels que l'appartenance raciale et ethnique, les algorithmes d'IA risquent de perpétuer ces dynamiques dans la région [11] . Les algorithmes développés pour automatiser les processus et formés aux valeurs d'une société bouleversée par les dynamiques de ségrégation et d'exclusion raciales tendent à reproduire des préjugés racistes et discriminatoires [12]. On sait que l'ALC abrite une population caractérisée par sa diversité multiethnique et multiculturelle, il n'est donc pas anodin de souligner la nécessité pour la région de s'insérer dans le débat éthique sur l'IA pour prioriser la protection de sa population contre lesdits préjugés coloniaux . .

D'autre part, la Banque interaméricaine de développement (BID) a averti en 2018 qu'entre 36 % et 43 % des emplois pourraient être perdus à cause de l'intelligence artificielle à la suite de l'automatisation [13]. Cela contribue à accroître la vulnérabilité socio-économique de la région et, malgré le fait que des organisations telles que le Massachusetts Institute of Technology (MIT) affirment que la perte de postes vacants sera compensée par la création de nouveaux emplois [14], il faut être pris en compte Gardez à l'esprit que ceux-ci nécessiteront des degrés élevés de spécialisation pour couvrir les nouveaux besoins du marché du travail. Par conséquent, si les questions nécessaires ne sont pas posées pour motiver la génération de stratégies qui atténuent ces conséquences, nous serons confrontés à un scénario où la concentration de la richesse entre quelques mains continuera d'être constante, ainsi qu'à un contexte de chômage endémique.

Comme le mentionne Lee, une partie de la réponse consistera à former des personnes à des tâches impliquant créativité, planification et réflexion multidisciplinaire ; Cependant, il faut se demander qui pourra payer la formation dans le développement de ces compétences et s'il y aura un nombre suffisant de postes vacants pour absorber la totalité de l'offre d'emploi.

Il est donc nécessaire pour LAC d'introduire dans le débat sur l'éthique de l'IA la remise en cause des mécanismes de coopération internationale et des politiques internationales, nécessaires pour que l'utilisation desdites technologies obéisse à une logique durable. En supposant que leur participation soit prise en compte, un autre point pertinent qui doit être mis sur la table est la démocratisation des ressources et des compétences afin que leur population puisse s'adapter aux nouvelles exigences du marché du travail.

En outre, il est d'une importance vitale que les dirigeants latino-américains contribuent à redéfinir le rôle de l'individu dans leur interaction avec les outils d'intelligence artificielle. Dans le cadre du forum "Conférence internationale des autorités de protection des données et de la vie privée", l'accent est mis sur l'importance du consentement éclairé lorsque les personnes fournissent des données personnelles à traiter par des systèmes d'IA [16]. Cependant, cette solution repose sur une vision de la liberté individuelle, qui ne tient pas compte de l'inégalité des connaissances, des ressources et, en général, du pouvoir entre les concepteurs d'IA et le reste de la population. Compte tenu du fait que le fonctionnement de ces systèmes est très complexe, même pour leurs propres développeurs, il est injuste que les individus se voient confier la responsabilité de comprendre les risques liés à l'utilisation de ces technologies tout en respectant leurs droits humains.

Sources

    [1] El llamado “aprendizaje profundo” o deep learning es un algoritmo que imita el aprendizaje humano. Este no requiere reglas programadas, sino que mediante una fase previa de entrenamiento, el sistema es capaz de aprender por sí mismo. Smart Panel (2020). ¿Qué es el Deep Learning?. En Smart Panel. Recuperado de: https://www.smartpanel.com/que-es-deep-learning/

    [2] IA LATAM. (s.f.). Historia de la Inteligencia Artificial. En IA LATAM. Recuperado de: https://ia-latam.com/2019/02/07/historia-de-la-inteligencia-artificial/#:~:text=En%20la%20d%C3%A9cada%20de%201980,computadoras%20aprender%20usando%20la%20experiencia.

    [3] Jobin, A., Ienca, M., & Vayena, E. “The global landscape of AI ethics guidelines. Nature Machine Intelligence. Vol. 1 (2019), https://www.nature.com/articles/s42256-019-0088-2

    [5] Banco Interamericano de Desarrollo (BID). La Inteligencia Artificial al servicio del bien social en América Latina y el Caribe. (Washington: BID, 2020, 16).

    [6] En contraste a la llamada hard law (es decir, regulaciones legalmente vinculantes), la soft law no es vinculatoria, sino que tiene un carácter persuasivo y contribuye a delimitar instrumentos legales vinculantes.

    [7] Jobin, A., Ienca, M., & Vayena, E. “The global landscape of AI ethics guidelines. Nature Machine Intelligence. Vol. 1 (2019), https://www.nature.com/articles/s42256-019-0088-2, 3.

    [8] Quijano, A. “Coloniality of power and Eurocentrism in Latin Americas”. International Sociology, 15, núm. (2000). https://journals.sagepub.com/doi/10.1177/0268580900015002005

    [9] Maldonado-Torres, N. On the coloniality of being: contributions to the development of a concept. Cultural studies, 21 núm 2-3, (2007). https://www.tandfonline.com/doi/abs/10.1080/09502380601162548?journalCode=rcus20

    [10] Couldry, N, Mejías, U.The costs of connection: how data is colonizing human life and appropriating it for capitalism. (California: Stanford University Press, 2020), 109

    [11] Los programas de “machine learning” tienen como objetivo detectar patrones en los datos que se les proveen, para luego replicarlos en predicciones futuras. Es por ello que la información que devuelven reflejará los sesgos presenten en la información que se utilice para alimentar el programa; esto propicia que la tecnología se convierta en un legitimador de viejos estereotipos y dinámicas de discriminación. Scrollini, F. Automatizar con cautela. Datos e Inteligencia artificial en América Latina. (Costa Rica: ILDA, 2018), 1.

    [12] A manera de ejemplo, puede citarse el caso del programa “PredPol” en Uruguay, cuyo fin era generar mapas predictivos sobre dónde ocurririrían incidencias delictivas en un plazo de 24 horas. La base sobre la cual “PredPol” realiza sus predicciones es el registro de datos de criminalidad del Ministerio del Interior. El software dejó de utilizarse, debido a que un informe publicado por la organización Human Rights Data Analysis Group sugirió que este tipo de programas genera un «circuito de retroalimentación». Esto lleva a los policías a las mismas zonas de la ciudad, generalmente en donde se concentra mayor cantidad de minorías raciales, independientemente de la verdadera tasa de criminalidad en esa área. La lógica del “circuito de retroalimentación” fue alimentada por los sesgos discriminatorios del viejo olfato policial. Scrollini, F. Automatizar con cautela. Datos e Inteligencia artificial en América Latina. (Costa Rica: ILDA, 2018), 13.

    [13] Schechter, P. Latin America’s Growing Artificial Intelligence Wave. En Brink The Edge of Risk. Recuperado de: https://www.brinknews.com/latin-americas-growing-artificial-intelligence-wave/#:~:text=Apocalyptic%20scenarios%20aside%2C%20the%20immediate,as%20a%20result%20of%20automatization.

    [14] Massachusetts Institute of Technology. The Global IA Agenda: Latin America. (Massachusetts: MIT), 4.

    [15] Lee, K. The Real Threat of Artificial Intelligence. En The New York Times. Recuperado de: https://www.nytimes.com/2017/06/24/opinion/sunday/artificial-intelligence-economic-inequality.html

    [16] IPANDETEC. Public consultation ethics and data protection in artificial intelligence: continuing the debate. a contribution from Latin America & the Caribbean. En IPANDETEC. Recuperado de: https://www.ipandetec.org/2019/04/12/public-consultation-ethics-data-protection-artificial-intelligence/


Le meilleur contenu dans votre boîte de réception

Rejoignez notre newsletter avec le meilleur de CEMERI

Articles connexes

Mejía, Ximena. “La posición de América Latina en el debate sobre la regulación de la Inteligencia Artificial (IA): ¿Quiénes están poniendo las reglas?.” CEMERI, 9 sept. 2022, https://cemeri.org/fr/art/a-inteligencia-artificial-america-latina-bu.