Ir al contenido
[X]

Análisis

Ximena Mejía Gutiérrez

La posición de América Latina en el debate sobre la regulación de la Inteligencia Artificial (IA): ¿Quiénes están poniendo las reglas?

- América Latina se está quedando al margen en el debate ético en torno al empleo de IA en actividades productivas. ¿Qué consecuencias traerá este rezago?

La posición de América Latina en el debate sobre la regulación de la Inteligencia Artificial (IA): ¿Quiénes están poniendo las reglas?

El debate ético en torno al desarrollo de la inteligencia artificial (IA) no es nuevo y su origen se remonta a la década de los años ochenta en los Estados Unidos. Entre 1982 y 1990, se invirtió un total de $400 millones de dólares con la finalidad de revolucionar las dinámicas de “aprendizaje profundo” [1] y la imitación del proceso de toma de decisiones humana por parte de sistemas automatizados [2]. Esto motivó el surgimiento de una serie de cuestionamientos morales y éticos sobre el impacto de dicha tecnología en la vida cotidiana de los seres humanos y el auge de tal debate puede situarse en el año 2016 [3]. Es en este momento en donde los Estados, entes privados y organismos de la sociedad civil comienzan a producir una serie de publicaciones sobre su postura ante el diseño e implementación de la IA, con el objetivo de establecer los puntos principales que deben ser regulados para evitar violaciones a los derechos humanos.

Sin embargo, no todas las regiones del mundo han tenido la oportunidad de contribuir, en la misma medida, a establecer sus principales preocupaciones sobre la aplicación de dicha tecnología. Como latinoamericanos y seres humanos vulnerables ante los impactos de la IA, es necesario preguntarse qué papel juega América Latina (ALyC) en la definición del debate ético sobre la regulación de la inteligencia artificial en la actualidad [4].

Si bien países como México, Brasil, Argentina, Colombia, Chile, Colombia, Ecuador, Costa Rica, Paraguay, Perú, República Dominicana y Trinidad y Tobago [5] han mostrado avances importantes en esta materia, a nivel regional no existe un posicionamiento en el que se establezcan los principios éticos que deben regir el empleo de la IA. Por ende, es de vital importancia que los Estados de ALyC asuman el compromiso conjunto de aumentar su participación en dicha polémica, con el objetivo de que los documentos vinculantes que se desarrollen en el futuro incorporen la perspectiva latinoamericana. Para ello se sugiere incluir en sus demandas postulados del enfoque crítico decolonial, al ser éste el principal aporte teórico proveniente de dicho territorio. Asimismo, se requiere que los Estados latinoamericanos se coordinen para priorizar la protección de los derechos humanos de los grupos más vulnerables ante los procesos de tratamiento de datos personales, y abordar el futuro laboral de la región a la luz del auge de los procesos de automatización.

En este sentido, la obra de Jobin, Marcello y Vayena permite corroborar que los países del Norte Global llevan la batuta en la instauración de los principales problemas éticos en torno a la aplicación de la IA. Los investigadores realizaron una revisión del corpus existente sobre normas de derecho indicativo [6] acerca de la ética de la IA y, en términos de distribución geográfica, los resultados muestran una representación prominente de los países económicamente más desarrollados. En conjunto, Estados Unidos (25.5%) y el Reino Unido (15.5%) representan más de un tercio de toda la producción del discurso ético sobre dicha temática, seguidos por Japón (4.8%), Alemania, Francia y Finlandia (cada uno, representa el 3.6%). A su vez, la Unión Europea también muestra una importante participación en la delimitación del discurso ético de la IA, ya que en este periodo generó el 7.1% de mecanismos de soft law, mientras algunos de sus estados miembro publicaron el 8.3%. Por su parte, los países latinoamericanos, africanos y varios Estados asiáticos no están representados independientemente de las organizaciones intergubernamentales, como la ONU [7].

Lo anterior no sólo resulta problemático por el descuido de los principios del pluralismo cultural y las demandas de equidad global, sino porque quien acota los términos del debate tiene el poder de establecer los problemas prioritarios sobre los cuales versarán las leyes internacionales para regular esta tecnología, los cuales no necesariamente corresponden a las prioridades de ALyC. Los autores citados identificaron la existencia de 11 principios éticos entre los que predomina la promoción de la transparencia, la no maleficencia, la responsabilidad y la privacidad. En general, la aplicación de tales postulados hace énfasis en la preservación de la privacidad, la dignidad, la autonomía y la libertad individual; es decir, la caracterización del debate se da en torno a la protección del individuo frente al diseño y aplicación de esta tecnología. Dichos principios son de suma importancia para que las personas reconozcan sus derechos frente a las entidades privadas que, por ejemplo, utilizan su información para generar ingresos económicos mediante los procesos de tratamiento de datos personales. No obstante, ¿en dónde se deja de manifiesto la responsabilidad de los Estados más desarrollados y las grandes entidades privadas hacia el compromiso de contribuir con el desarrollo económico de los países más vulnerables y sus poblaciones? ¿En donde se deja de manifiesto la necesidad de desarrollar estrategias inclusivas para la prevención de la pérdida de empleos y el reparto injusto de los beneficios económicos que traerá la aplicación de la IA, a través de la extracción de información de grupos históricamente vulnerados?

La inclusión del enfoque crítico decolonial en esta polémica permite poner sobre la mesa la responsabilidad de los Estados más desarrollados y los organismos privados más grandes sobre los impactos negativos que conlleva la aplicación de la inteligencia artificial en América Latina—esto con la finalidad de propiciar la generación de estrategias inclusivas que mitiguen tales consecuencias sobre la población latinoamericana—. De tal suerte, la noción de “colonialidad del poder” de Quijano permite entender la continuidad de las dinámicas de poder entre los países más desarrollados y aquellos que se han dado en llamar “en vías de desarrollo”—esto a través de procesos históricos de despojo, esclavitud, apropiación y extracción de recursos, los cuales fueron centrales para el surguimiento del mundo moderno— [8]. Por tanto, la colonialidad es lo que sobrevive al colonialismo y, para Maldonado Torres, esta implica la reproducción de jerarquías económicas, geopolíticas, de raza y de género, que se generaron como herramientas de control colonial [9]

Bajo esta perspectiva, la puesta en marcha de procesos de tratamiento de datos personales supone una nueva forma de colonialidad del poder, ya que los organismos encargados de llevar a cabo estos procesos convierten cualquier aspecto de la vida de las personas en información y, a la vez, esta se convierte en mercancía [10]. Lo preocupante aquí es que, al igual que en los siglos XVI, XVII, XVIII y XIX en donde potencias coloniales categorizaban y excluían a los individuos en función de factores como su pertenencia racial y étnica, los algoritmos de la IA presentan el riesgo de perpetuar dichas dinámicas en la región [11]. Los algoritmos desarrollados para automatizar procesos y entrenados bajo los valores de una sociedad que fue trastocada por las dinámicas de segregación y exclusión racial tienden a replicar sesgos racistas y discriminatorios [12]. Se sabe que ALyC alberga una población caracterizada por su diversidad multiétnica y multicultural, por lo que no es banal hacer énfasis en la necesidad de que la región se inserte en el debate ético de la IA para priorizar la protección de su población contra dichos sesgos coloniales.

Por otro lado, el Banco Interamericano de Desarrollo (BID) advirtió en 2018 que entre el 36% y el 43% de los puestos de trabajo podrían perderse debido a la inteligencia artificial como resultado de la automatización [13]. Esto contribuye a incrementar la vulnerabilidad socioeconómica de la región y, a pesar de que organismos como el Instituto Tecnológico de Massachussets (MIT) argumentan que la pérdida de vacantes será compensada con la creación de nuevos empleos [14], se debe tener en cuenta que estos requerirán altos grados de especialización para cubrir las nuevas necesidades del mercado laboral. Por tanto, si no se empiezan a hacer las preguntas necesarias para motivar la generación de estrategias que mitiguen dichas consecuencias, nos enfrentaremos a un escenario en donde la concentración de riqueza en unas cuantas manos seguirá siendo la constante, así como un contexto de desempleo rampante.

Como menciona Lee, parte de la respuesta implicará capacitar a las personas en las tareas que implican creatividad, planificación y pensamiento multidisciplinario [15]—estas son habilidades en donde la IA ha demostrado no ser muy buena—. No obstante, es necesario cuestionar quienes podrán pagar para capacitarse en el desarrollo de dichas habilidades y si habrá la suficiente cantidad de vacantes para absorber toda la oferta laboral.

Por tanto, es necesario que ALyC introduzca al debate de la ética de la IA el cuestionamiento sobre los mecanismos de cooperación internacional y políticas internacionales, que se requieren para que empleo de dichas tecnologías obedezca a una lógica sostenible. Asumiendo que su participación sea tomada en cuenta, otro punto relevante que deberá poner sobre la mesa es la democratización de los recursos y habilidades para que su población pueda adaptarse a los nuevos requerimientos del mercado laboral.

También, es de vital importancia que los líderes latinoamericanos contribuyan a resignificar el papel del individuo en su interacción con herramientas de inteligencia artificial. Dentro del marco del foro “Conferencia Internacional de Autoridades de Protección de Datos y Privacidad” se hace énfasis en la importancia del consentimiento informado cuando las personas brindan datos personales para ser procesados por sistemas de IA [16]. No obstante, esta solución se basa en una visión sobre la libertad individual, que no toma en cuenta la desigualdad de conocimientos, recursos y, en general, de poder entre los diseñadores de IA y el resto de la población. Tomando en cuenta que el funcionamiento de estos sistemas es altamente complejo— incluso para sus propios desarrolladores—, resulta injusto que se le adjudica a los individuos la responsabilidad de comprender los riesgos del uso de tales tecnologías en el respeto de sus derechos humanos.

Fuentes

    [1] El llamado “aprendizaje profundo” o deep learning es un algoritmo que imita el aprendizaje humano. Este no requiere reglas programadas, sino que mediante una fase previa de entrenamiento, el sistema es capaz de aprender por sí mismo. Smart Panel (2020). ¿Qué es el Deep Learning?. En Smart Panel. Recuperado de: https://www.smartpanel.com/que-es-deep-learning/

    [2] IA LATAM. (s.f.). Historia de la Inteligencia Artificial. En IA LATAM. Recuperado de: https://ia-latam.com/2019/02/07/historia-de-la-inteligencia-artificial/#:~:text=En%20la%20d%C3%A9cada%20de%201980,computadoras%20aprender%20usando%20la%20experiencia.

    [3] Jobin, A., Ienca, M., & Vayena, E. “The global landscape of AI ethics guidelines. Nature Machine Intelligence. Vol. 1 (2019), https://www.nature.com/articles/s42256-019-0088-2

    [5] Banco Interamericano de Desarrollo (BID). La Inteligencia Artificial al servicio del bien social en América Latina y el Caribe. (Washington: BID, 2020, 16).

    [6] En contraste a la llamada hard law (es decir, regulaciones legalmente vinculantes), la soft law no es vinculatoria, sino que tiene un carácter persuasivo y contribuye a delimitar instrumentos legales vinculantes.

    [7] Jobin, A., Ienca, M., & Vayena, E. “The global landscape of AI ethics guidelines. Nature Machine Intelligence. Vol. 1 (2019), https://www.nature.com/articles/s42256-019-0088-2, 3.

    [8] Quijano, A. “Coloniality of power and Eurocentrism in Latin Americas”. International Sociology, 15, núm. (2000). https://journals.sagepub.com/doi/10.1177/0268580900015002005

    [9] Maldonado-Torres, N. On the coloniality of being: contributions to the development of a concept. Cultural studies, 21 núm 2-3, (2007). https://www.tandfonline.com/doi/abs/10.1080/09502380601162548?journalCode=rcus20

    [10] Couldry, N, Mejías, U.The costs of connection: how data is colonizing human life and appropriating it for capitalism. (California: Stanford University Press, 2020), 109

    [11] Los programas de “machine learning” tienen como objetivo detectar patrones en los datos que se les proveen, para luego replicarlos en predicciones futuras. Es por ello que la información que devuelven reflejará los sesgos presenten en la información que se utilice para alimentar el programa; esto propicia que la tecnología se convierta en un legitimador de viejos estereotipos y dinámicas de discriminación. Scrollini, F. Automatizar con cautela. Datos e Inteligencia artificial en América Latina. (Costa Rica: ILDA, 2018), 1.

    [12] A manera de ejemplo, puede citarse el caso del programa “PredPol” en Uruguay, cuyo fin era generar mapas predictivos sobre dónde ocurririrían incidencias delictivas en un plazo de 24 horas. La base sobre la cual “PredPol” realiza sus predicciones es el registro de datos de criminalidad del Ministerio del Interior. El software dejó de utilizarse, debido a que un informe publicado por la organización Human Rights Data Analysis Group sugirió que este tipo de programas genera un «circuito de retroalimentación». Esto lleva a los policías a las mismas zonas de la ciudad, generalmente en donde se concentra mayor cantidad de minorías raciales, independientemente de la verdadera tasa de criminalidad en esa área. La lógica del “circuito de retroalimentación” fue alimentada por los sesgos discriminatorios del viejo olfato policial. Scrollini, F. Automatizar con cautela. Datos e Inteligencia artificial en América Latina. (Costa Rica: ILDA, 2018), 13.

    [13] Schechter, P. Latin America’s Growing Artificial Intelligence Wave. En Brink The Edge of Risk. Recuperado de: https://www.brinknews.com/latin-americas-growing-artificial-intelligence-wave/#:~:text=Apocalyptic%20scenarios%20aside%2C%20the%20immediate,as%20a%20result%20of%20automatization.

    [14] Massachusetts Institute of Technology. The Global IA Agenda: Latin America. (Massachusetts: MIT), 4.

    [15] Lee, K. The Real Threat of Artificial Intelligence. En The New York Times. Recuperado de: https://www.nytimes.com/2017/06/24/opinion/sunday/artificial-intelligence-economic-inequality.html

    [16] IPANDETEC. Public consultation ethics and data protection in artificial intelligence: continuing the debate. a contribution from Latin America & the Caribbean. En IPANDETEC. Recuperado de: https://www.ipandetec.org/2019/04/12/public-consultation-ethics-data-protection-artificial-intelligence/


El mejor contenido en tu bandeja de entrada

Únete a nuestro boletín con lo mejor de CEMERI

Artículos relacionados

Mejía, Ximena. “La posición de América Latina en el debate sobre la regulación de la Inteligencia Artificial (IA): ¿Quiénes están poniendo las reglas?.” CEMERI, 9 sept. 2022, https://cemeri.org/art/a-inteligencia-artificial-america-latina-bu.