Pular para o conteúdo
[X]

Análise

Ximena Mejía Gutiérrez

A posição da América Latina no debate sobre a regulamentação da Inteligência Artificial (IA): Quem dita as regras?

- A América Latina está sendo deixada de lado no debate ético em torno do uso da IA ​​em atividades produtivas. Que consequências esse atraso trará?

A posição da América Latina no debate sobre a regulamentação da Inteligência Artificial (IA): Quem dita as regras?

O debate ético em torno do desenvolvimento da inteligência artificial (IA) não é novo e a sua origem remonta à década de 1980, nos Estados Unidos. Entre 1982 e 1990, um total de US$ 400 milhões de dólares foi investido para revolucionar a dinâmica do "aprendizado profundo" [1] e a imitação do processo humano de tomada de decisão por sistemas automatizados [2\ ]. Isso motivou o surgimento de uma série de questões morais e éticas sobre o impacto da referida tecnologia no cotidiano do ser humano e o auge de tal debate pode ser colocado no ano de 2016 [3]. É neste momento que Estados, entidades privadas e organizações da sociedade civil começam a produzir uma série de publicações sobre a sua posição sobre a concepção e implementação da IA, com o objectivo de estabelecer os principais pontos que devem ser regulamentados para evitar violações dos direitos humanos.

Contudo, nem todas as regiões do mundo tiveram a oportunidade de contribuir, na mesma medida, para estabelecer as suas principais preocupações sobre a aplicação desta tecnologia. Como latino-americanos e seres humanos vulneráveis ​​aos impactos da IA, é necessário perguntar qual o papel que a América Latina (ALC) desempenha hoje na definição do debate ético sobre a regulamentação da inteligência artificial [4].

Embora países como México, Brasil, Argentina, Colômbia, Chile, Colômbia, Equador, Costa Rica, Paraguai, Peru, República Dominicana e Trinidad e Tobago [5] tenham mostrado progressos significativos nesta questão, no nível regional há não há posição em que sejam estabelecidos os princípios éticos que deveriam reger o uso da IA. Portanto, é de vital importância que os Estados da ALC assumam o compromisso conjunto de aumentar sua participação nesta controvérsia, com o objetivo de que os documentos vinculativos que sejam desenvolvidos no futuro incorporem a perspectiva latino-americana. Para isso, sugere-se incluir em suas demandas postulados da abordagem decolonial crítica, já que esta é a principal contribuição teórica do referido território. Da mesma forma, os Estados latino-americanos devem coordenar-se para priorizar a proteção dos direitos humanos dos grupos mais vulneráveis ​​face aos processos de processamento de dados pessoais e abordar o futuro do emprego na região à luz do aumento dos processos de automação. .

Neste sentido, o trabalho de Jobin, Marcello e Vayena permite-nos confirmar que os países do Norte Global são pioneiros no estabelecimento dos principais problemas éticos que rodeiam a aplicação da IA. Os investigadores realizaram uma revisão do corpus de soft law existente sobre a ética da IA ​​e, em termos de distribuição geográfica, os resultados mostram uma representação proeminente dos países economicamente mais desenvolvidos. Juntos, os Estados Unidos (25,5%) e o Reino Unido (15,5%) respondem por mais de um terço de todo o discurso ético produzido sobre o assunto, seguidos pelo Japão (4,8%), Alemanha, França e Finlândia (cada, representa 3,6%). Por sua vez, a União Europeia também mostra uma participação importante na delimitação do discurso ético da IA, uma vez que neste período gerou 7,1% de mecanismos de soft law, enquanto alguns dos seus estados membros publicaram 8,3%. Por sua vez, os países latino-americanos e africanos e vários estados asiáticos não estão representados independentemente de organizações intergovernamentais como a ONU [7].

Isto não é apenas problemático devido à negligência dos princípios do pluralismo cultural e das exigências de equidade global, mas também porque quem define os termos do debate tem o poder de estabelecer os problemas prioritários que as leis internacionais irão abordar para regular esta tecnologia. que não correspondem necessariamente às prioridades da ALC. Os autores supracitados identificaram a existência de 11 princípios éticos entre os quais predominam a promoção da transparência, da não maleficência, da responsabilidade e da privacidade. Em geral, a aplicação de tais postulados enfatiza a preservação da privacidade, da dignidade, da autonomia e da liberdade individual; ou seja, a caracterização do debate ocorre em torno da proteção do indivíduo contra o desenho e aplicação desta tecnologia. Estes princípios são da maior importância para que as pessoas reconheçam os seus direitos contra entidades privadas que, por exemplo, utilizam as suas informações para gerar rendimentos económicos através de processos de tratamento de dados pessoais. Contudo, onde se manifesta a responsabilidade dos Estados mais desenvolvidos e das grandes entidades privadas no compromisso de contribuir para o desenvolvimento económico dos países mais vulneráveis ​​e das suas populações? Onde está a necessidade de desenvolver estratégias inclusivas para a prevenção da perda de emprego e da distribuição injusta dos benefícios económicos que a aplicação da IA ​​trará, através da extracção de informação de grupos historicamente vulneráveis?

A inclusão da abordagem descolonial crítica nesta controvérsia permite colocar sobre a mesa a responsabilidade dos Estados mais desenvolvidos e das maiores organizações privadas relativamente aos impactos negativos da aplicação da inteligência artificial na América Latina – isto para promover a geração de estratégias inclusivas que mitiguem tais consequências sobre a população latino-americana. Assim, a noção de “colonialidade do poder” de Quijano permite-nos compreender a continuidade da dinâmica de poder entre os países mais desenvolvidos e aqueles que foram chamados de “em desenvolvimento” – através de processos históricos de desapropriação, escravidão, apropriação e extração de recursos, que foram central para a ascensão do mundo moderno— [8]. Portanto, a colonialidade é o que sobrevive ao colonialismo e, para Maldonado Torres, isso implica a reprodução de hierarquias econômicas, geopolíticas, de raça e de gênero, que foram geradas como ferramentas de controle colonial [9]

Nessa perspectiva, a implementação de processos de tratamento de dados pessoais supõe uma nova forma de colonialidade do poder, uma vez que as organizações encarregadas de realizar esses processos convertem qualquer aspecto da vida das pessoas em informação e, ao mesmo tempo, torna-se mercadoria [10]. O que é preocupante aqui é que, tal como nos séculos XVI, XVII, XVIII e XIX, onde as potências coloniais categorizaram e excluíram indivíduos com base em factores como afiliação racial e étnica, os algoritmos de IA correm o risco de perpetuar estas dinâmicas na região. . Os algoritmos desenvolvidos para automatizar processos e treinados sob os valores de uma sociedade que foi perturbada pela dinâmica de segregação e exclusão racial tendem a replicar preconceitos racistas e discriminatórios [12]. Sabe-se que a ALC abriga uma população caracterizada por sua diversidade multiétnica e multicultural, por isso não é trivial enfatizar a necessidade de a região se inserir no debate ético sobre IA para priorizar a proteção de sua população contra os ditos preconceitos coloniais.

Por outro lado, o Banco Interamericano de Desenvolvimento (BID) alertou em 2018 que entre 36% e 43% dos empregos poderiam ser perdidos devido à inteligência artificial como resultado da automação [13]. Isto contribui para aumentar a vulnerabilidade socioeconómica da região e, apesar de organizações como o Massachusetts Institute of Technology (MIT) argumentarem que a perda de vagas será compensada pela criação de novos empregos [14], deve ser levados em conta Tenha em mente que estes exigirão altos graus de especialização para cobrir as novas necessidades do mercado de trabalho. Portanto, se não forem feitas as questões necessárias para motivar a geração de estratégias que mitiguem estas consequências, enfrentaremos um cenário onde a concentração da riqueza em poucas mãos continuará a ser constante, bem como um contexto de desemprego desenfreado.

Como Lee menciona, parte da resposta envolverá o treinamento de pessoas em tarefas que envolvem criatividade, planejamento e pensamento multidisciplinar [15] – essas são habilidades nas quais a IA não se mostrou muito boa. Porém, é preciso questionar quem poderá custear a formação no desenvolvimento dessas competências e se haverá vagas suficientes para absorver toda a oferta de trabalho.

Portanto, é necessário que a ALC introduza no debate sobre a ética da IA ​​o questionamento dos mecanismos de cooperação internacional e das políticas internacionais, necessários para que o uso dessas tecnologias obedeça a uma lógica sustentável. Assumindo que a sua participação é tida em conta, outro ponto relevante que deve ser colocado em cima da mesa é a democratização de recursos e competências para que a sua população se possa adaptar às novas exigências do mercado de trabalho.

Além disso, é de vital importância que os líderes latino-americanos contribuam para redefinir o papel do indivíduo na sua interação com as ferramentas de inteligência artificial. No âmbito do fórum "Conferência Internacional de Autoridades de Proteção de Dados e Privacidade", a ênfase é colocada na importância do consentimento informado quando as pessoas fornecem dados pessoais para serem processados ​​por sistemas de IA [16]. No entanto, esta solução baseia-se numa visão de liberdade individual, que não tem em conta a desigualdade de conhecimento, recursos e, em geral, poder entre os criadores de IA e o resto da população. Tendo em conta que o funcionamento destes sistemas é altamente complexo – até mesmo para os seus próprios desenvolvedores –, é injusto que os indivíduos tenham a responsabilidade de compreender os riscos da utilização de tais tecnologias, respeitando os seus direitos humanos.

Fontes

    [1] El llamado “aprendizaje profundo” o deep learning es un algoritmo que imita el aprendizaje humano. Este no requiere reglas programadas, sino que mediante una fase previa de entrenamiento, el sistema es capaz de aprender por sí mismo. Smart Panel (2020). ¿Qué es el Deep Learning?. En Smart Panel. Recuperado de: https://www.smartpanel.com/que-es-deep-learning/

    [2] IA LATAM. (s.f.). Historia de la Inteligencia Artificial. En IA LATAM. Recuperado de: https://ia-latam.com/2019/02/07/historia-de-la-inteligencia-artificial/#:~:text=En%20la%20d%C3%A9cada%20de%201980,computadoras%20aprender%20usando%20la%20experiencia.

    [3] Jobin, A., Ienca, M., & Vayena, E. “The global landscape of AI ethics guidelines. Nature Machine Intelligence. Vol. 1 (2019), https://www.nature.com/articles/s42256-019-0088-2

    [5] Banco Interamericano de Desarrollo (BID). La Inteligencia Artificial al servicio del bien social en América Latina y el Caribe. (Washington: BID, 2020, 16).

    [6] En contraste a la llamada hard law (es decir, regulaciones legalmente vinculantes), la soft law no es vinculatoria, sino que tiene un carácter persuasivo y contribuye a delimitar instrumentos legales vinculantes.

    [7] Jobin, A., Ienca, M., & Vayena, E. “The global landscape of AI ethics guidelines. Nature Machine Intelligence. Vol. 1 (2019), https://www.nature.com/articles/s42256-019-0088-2, 3.

    [8] Quijano, A. “Coloniality of power and Eurocentrism in Latin Americas”. International Sociology, 15, núm. (2000). https://journals.sagepub.com/doi/10.1177/0268580900015002005

    [9] Maldonado-Torres, N. On the coloniality of being: contributions to the development of a concept. Cultural studies, 21 núm 2-3, (2007). https://www.tandfonline.com/doi/abs/10.1080/09502380601162548?journalCode=rcus20

    [10] Couldry, N, Mejías, U.The costs of connection: how data is colonizing human life and appropriating it for capitalism. (California: Stanford University Press, 2020), 109

    [11] Los programas de “machine learning” tienen como objetivo detectar patrones en los datos que se les proveen, para luego replicarlos en predicciones futuras. Es por ello que la información que devuelven reflejará los sesgos presenten en la información que se utilice para alimentar el programa; esto propicia que la tecnología se convierta en un legitimador de viejos estereotipos y dinámicas de discriminación. Scrollini, F. Automatizar con cautela. Datos e Inteligencia artificial en América Latina. (Costa Rica: ILDA, 2018), 1.

    [12] A manera de ejemplo, puede citarse el caso del programa “PredPol” en Uruguay, cuyo fin era generar mapas predictivos sobre dónde ocurririrían incidencias delictivas en un plazo de 24 horas. La base sobre la cual “PredPol” realiza sus predicciones es el registro de datos de criminalidad del Ministerio del Interior. El software dejó de utilizarse, debido a que un informe publicado por la organización Human Rights Data Analysis Group sugirió que este tipo de programas genera un «circuito de retroalimentación». Esto lleva a los policías a las mismas zonas de la ciudad, generalmente en donde se concentra mayor cantidad de minorías raciales, independientemente de la verdadera tasa de criminalidad en esa área. La lógica del “circuito de retroalimentación” fue alimentada por los sesgos discriminatorios del viejo olfato policial. Scrollini, F. Automatizar con cautela. Datos e Inteligencia artificial en América Latina. (Costa Rica: ILDA, 2018), 13.

    [13] Schechter, P. Latin America’s Growing Artificial Intelligence Wave. En Brink The Edge of Risk. Recuperado de: https://www.brinknews.com/latin-americas-growing-artificial-intelligence-wave/#:~:text=Apocalyptic%20scenarios%20aside%2C%20the%20immediate,as%20a%20result%20of%20automatization.

    [14] Massachusetts Institute of Technology. The Global IA Agenda: Latin America. (Massachusetts: MIT), 4.

    [15] Lee, K. The Real Threat of Artificial Intelligence. En The New York Times. Recuperado de: https://www.nytimes.com/2017/06/24/opinion/sunday/artificial-intelligence-economic-inequality.html

    [16] IPANDETEC. Public consultation ethics and data protection in artificial intelligence: continuing the debate. a contribution from Latin America & the Caribbean. En IPANDETEC. Recuperado de: https://www.ipandetec.org/2019/04/12/public-consultation-ethics-data-protection-artificial-intelligence/


O melhor conteúdo na sua caixa de entrada

Junte-se ao nosso boletim com o melhor da CEMERI

Artigos relacionados

Mejía, Ximena. “La posición de América Latina en el debate sobre la regulación de la Inteligencia Artificial (IA): ¿Quiénes están poniendo las reglas?.” CEMERI, 9 sept. 2022, https://cemeri.org/pt/art/a-inteligencia-artificial-america-latina-bu.