Перейти к содержанию
[X]

Анализ

Ximena Mejía Gutiérrez

Позиция Латинской Америки в дебатах о регулировании искусственного интеллекта (ИИ): кто устанавливает правила?

- Латинская Америка остается в стороне в этических дебатах по поводу использования ИИ в производственной деятельности. К каким последствиям приведет эта задержка?

Позиция Латинской Америки в дебатах о регулировании искусственного интеллекта (ИИ): кто устанавливает правила?

Этические дебаты вокруг разработки искусственного интеллекта (ИИ) не новы, и их начало восходит к 1980-м годам в Соединенных Штатах. В период с 1982 по 1990 год было вложено в общей сложности 400 миллионов долларов, чтобы революционизировать динамику «глубокого обучения» [1] и имитацию процесса принятия решений человеком автоматизированными системами [2]. Это мотивировало появление ряда моральных и этических вопросов о влиянии указанной технологии на повседневную жизнь людей, и пик таких дебатов можно отнести к 2016 году [3]. Именно в это время государства, частные лица и организации гражданского общества начинают выпускать серию публикаций о своей позиции по разработке и внедрению ИИ с целью установления основных моментов, которые необходимо регулировать во избежание нарушений прав человека.

Однако не все регионы мира имели возможность в равной степени внести свой вклад в установление своих основных опасений по поводу применения такой технологии. Поскольку латиноамериканцы и люди уязвимы к воздействию ИИ, необходимо задаться вопросом, какую роль играет Латинская Америка (ЛАК) в определении этических дебатов по регулированию искусственного интеллекта сегодня [4].

Хотя такие страны, как Мексика, Бразилия, Аргентина, Колумбия, Чили, Колумбия, Эквадор, Коста-Рика, Парагвай, Перу, Доминиканская Республика и Тринидад и Тобаго [5], добились значительного прогресса в этом вопросе, на региональном уровне это не позиция, в которой устанавливаются этические принципы, которыми следует руководствоваться при использовании ИИ. Поэтому жизненно важно, чтобы государства ЛАК взяли на себя совместное обязательство активизировать свое участие в этом споре с целью включения в разрабатываемые в будущем обязательных документов латиноамериканской перспективы. Для этого предлагается включить в их требования постулаты критического деколониального подхода, так как это основной теоретический вклад с указанной территории. Аналогичным образом, латиноамериканские государства должны координировать свои действия, чтобы приоритизировать защиту прав человека наиболее уязвимых групп перед лицом процессов обработки персональных данных и решать вопросы будущего занятости в регионе в свете развития процессов автоматизации. .

В этом смысле работа Джобина, Марчелло и Вайены позволяет нам подтвердить, что страны Глобального Севера лидируют в решении основных этических проблем, связанных с применением ИИ. Исследователи провели обзор существующего свода правовых норм [6] по этике ИИ, и с точки зрения географического распределения результаты показывают заметное представительство наиболее экономически развитых стран. В совокупности на Соединенные Штаты (25,5%) и Великобританию (15,5%) приходится более трети всего этического дискурса по этому вопросу, за ними следуют Япония (4,8%), Германия, Франция и Финляндия (каждая, составляет 3,6%). В свою очередь, Европейский Союз также проявляет важное участие в разграничении этического дискурса ИИ, поскольку в этот период он сгенерировал 7,1% механизмов «мягкого права», а некоторые его государства-члены опубликовали 8,3%. Со своей стороны, латиноамериканские и африканские страны, а также ряд азиатских государств не представлены независимо от межправительственных организаций, таких как ООН [7].

Это проблематично не только из-за пренебрежения принципами культурного плюрализма и требованиями глобальной справедливости, но и потому, что тот, кто определяет условия дебатов, имеет право устанавливать приоритетные проблемы, которые международное право будет решать для регулирования этой технологии. которые не обязательно соответствуют приоритетам LAC. Вышеупомянутые авторы определили наличие 11 этических принципов, среди которых преобладают поощрение прозрачности, непричинения вреда, ответственности и конфиденциальности. В целом применение таких постулатов подчеркивает сохранение частной жизни, достоинства, автономии и свободы личности; то есть характеристика дебатов происходит вокруг защиты личности от разработки и применения этой технологии. Эти принципы имеют первостепенное значение для признания людьми своих прав в отношении частных лиц, которые, например, используют их информацию для получения экономического дохода посредством процессов обработки персональных данных. Однако в чем проявляется ответственность наиболее развитых государств и крупных частных субъектов в отношении обязательства содействовать экономическому развитию наиболее уязвимых стран и их населения? Где потребность в разработке инклюзивных стратегий для предотвращения потери работы и несправедливого распределения экономических выгод, которые принесет применение ИИ, за счет извлечения информации из групп, исторически уязвимых?

Включение критического деколониального подхода в эту полемику позволяет выложить на стол ответственность наиболее развитых государств и крупнейших частных организаций за негативные последствия применения искусственного интеллекта в Латинской Америке — в целях содействия разработка инклюзивных стратегий, смягчающих такие последствия для населения Латинской Америки. Таким образом, понятие Кихано о «колониальности власти» позволяет нам понять преемственность динамики власти между наиболее развитыми странами и теми, которые были названы «развивающимися» — через исторические процессы лишения собственности, рабства, присвоения и извлечения ресурсов, которые были занимает центральное место в подъеме современного мира — [8]. Следовательно, колониальность — это то, что переживает колониализм, и для Мальдонадо Торреса это подразумевает воспроизведение экономических, геополитических, расовых и гендерных иерархий, которые были созданы как инструменты колониального контроля [9]

С этой точки зрения внедрение процессов обработки персональных данных предполагает новую форму колониальности власти, поскольку организации, отвечающие за осуществление этих процессов, превращают любой аспект жизни людей в информацию, и в то же время она становится товаром. [10]. Что здесь беспокоит, так это то, что, как и в 16, 17, 18 и 19 веках, когда колониальные державы классифицировали и исключали людей на основе таких факторов, как расовая и этническая принадлежность, алгоритмы ИИ рискуют увековечить эту динамику в регионе [11] . Алгоритмы, разработанные для автоматизации процессов и обученные ценностям общества, которое было нарушено динамикой расовой сегрегации и исключения, имеют тенденцию воспроизводить расистские и дискриминационные предубеждения [12]. Известно, что ЛАК является домом для населения, характеризующегося своим многоэтническим и мультикультурным разнообразием, поэтому нетривиально подчеркнуть необходимость того, чтобы регион включился в этические дебаты об ИИ, чтобы сделать приоритетом защиту своего населения от упомянутых колониальных предубеждений. . . .

С другой стороны, Межамериканский банк развития (IDB) предупредил в 2018 году, что от 36% до 43% рабочих мест могут быть потеряны из-за искусственного интеллекта в результате автоматизации [13]. Это способствует повышению социально-экономической уязвимости региона и, несмотря на то, что такие организации, как Массачусетский технологический институт (MIT) утверждают, что потеря вакансий будет компенсирована созданием новых рабочих мест [14], необходимо следует учитывать Имейте в виду, что для удовлетворения новых потребностей рынка труда потребуется высокая степень специализации. Поэтому, если не будут заданы необходимые вопросы для мотивации выработки стратегий, смягчающих эти последствия, мы столкнемся со сценарием, при котором концентрация богатства в руках немногих будет продолжать оставаться постоянной, а также с контекстом безудержной безработицы.

Как упоминает Ли, часть ответа будет заключаться в обучении людей задачам, связанным с творчеством, планированием и междисциплинарным мышлением [15] — это навыки, в которых ИИ оказался не очень хорош. Однако необходимо задаться вопросом, кто сможет оплатить обучение по развитию этих навыков и будет ли достаточное количество вакансий, чтобы поглотить все предложение о работе.

Следовательно, ЛАК необходимо внести в дебаты об этике ИИ вопрос о механизмах международного сотрудничества и международной политике, которые необходимы для того, чтобы использование указанных технологий подчинялось устойчивой логике. Предполагая, что их участие принимается во внимание, еще одним важным моментом, который необходимо рассмотреть, является демократизация ресурсов и навыков, с тем чтобы их население могло адаптироваться к новым требованиям рынка труда.

Кроме того, жизненно важно, чтобы латиноамериканские лидеры внесли свой вклад в переосмысление роли человека в их взаимодействии с инструментами искусственного интеллекта. В рамках форума «Международная конференция органов по защите данных и конфиденциальности» делается акцент на важности информированного согласия, когда люди предоставляют персональные данные для обработки системами ИИ [16]. Однако это решение основано на видении индивидуальной свободы, которое не учитывает неравенство знаний, ресурсов и в целом власти между разработчиками ИИ и остальным населением. Принимая во внимание, что эксплуатация этих систем очень сложна даже для их собственных разработчиков, несправедливо возлагать на отдельных лиц ответственность за понимание рисков использования таких технологий при соблюдении их прав человека.

Источники

    [1] El llamado “aprendizaje profundo” o deep learning es un algoritmo que imita el aprendizaje humano. Este no requiere reglas programadas, sino que mediante una fase previa de entrenamiento, el sistema es capaz de aprender por sí mismo. Smart Panel (2020). ¿Qué es el Deep Learning?. En Smart Panel. Recuperado de: https://www.smartpanel.com/que-es-deep-learning/

    [2] IA LATAM. (s.f.). Historia de la Inteligencia Artificial. En IA LATAM. Recuperado de: https://ia-latam.com/2019/02/07/historia-de-la-inteligencia-artificial/#:~:text=En%20la%20d%C3%A9cada%20de%201980,computadoras%20aprender%20usando%20la%20experiencia.

    [3] Jobin, A., Ienca, M., & Vayena, E. “The global landscape of AI ethics guidelines. Nature Machine Intelligence. Vol. 1 (2019), https://www.nature.com/articles/s42256-019-0088-2

    [5] Banco Interamericano de Desarrollo (BID). La Inteligencia Artificial al servicio del bien social en América Latina y el Caribe. (Washington: BID, 2020, 16).

    [6] En contraste a la llamada hard law (es decir, regulaciones legalmente vinculantes), la soft law no es vinculatoria, sino que tiene un carácter persuasivo y contribuye a delimitar instrumentos legales vinculantes.

    [7] Jobin, A., Ienca, M., & Vayena, E. “The global landscape of AI ethics guidelines. Nature Machine Intelligence. Vol. 1 (2019), https://www.nature.com/articles/s42256-019-0088-2, 3.

    [8] Quijano, A. “Coloniality of power and Eurocentrism in Latin Americas”. International Sociology, 15, núm. (2000). https://journals.sagepub.com/doi/10.1177/0268580900015002005

    [9] Maldonado-Torres, N. On the coloniality of being: contributions to the development of a concept. Cultural studies, 21 núm 2-3, (2007). https://www.tandfonline.com/doi/abs/10.1080/09502380601162548?journalCode=rcus20

    [10] Couldry, N, Mejías, U.The costs of connection: how data is colonizing human life and appropriating it for capitalism. (California: Stanford University Press, 2020), 109

    [11] Los programas de “machine learning” tienen como objetivo detectar patrones en los datos que se les proveen, para luego replicarlos en predicciones futuras. Es por ello que la información que devuelven reflejará los sesgos presenten en la información que se utilice para alimentar el programa; esto propicia que la tecnología se convierta en un legitimador de viejos estereotipos y dinámicas de discriminación. Scrollini, F. Automatizar con cautela. Datos e Inteligencia artificial en América Latina. (Costa Rica: ILDA, 2018), 1.

    [12] A manera de ejemplo, puede citarse el caso del programa “PredPol” en Uruguay, cuyo fin era generar mapas predictivos sobre dónde ocurririrían incidencias delictivas en un plazo de 24 horas. La base sobre la cual “PredPol” realiza sus predicciones es el registro de datos de criminalidad del Ministerio del Interior. El software dejó de utilizarse, debido a que un informe publicado por la organización Human Rights Data Analysis Group sugirió que este tipo de programas genera un «circuito de retroalimentación». Esto lleva a los policías a las mismas zonas de la ciudad, generalmente en donde se concentra mayor cantidad de minorías raciales, independientemente de la verdadera tasa de criminalidad en esa área. La lógica del “circuito de retroalimentación” fue alimentada por los sesgos discriminatorios del viejo olfato policial. Scrollini, F. Automatizar con cautela. Datos e Inteligencia artificial en América Latina. (Costa Rica: ILDA, 2018), 13.

    [13] Schechter, P. Latin America’s Growing Artificial Intelligence Wave. En Brink The Edge of Risk. Recuperado de: https://www.brinknews.com/latin-americas-growing-artificial-intelligence-wave/#:~:text=Apocalyptic%20scenarios%20aside%2C%20the%20immediate,as%20a%20result%20of%20automatization.

    [14] Massachusetts Institute of Technology. The Global IA Agenda: Latin America. (Massachusetts: MIT), 4.

    [15] Lee, K. The Real Threat of Artificial Intelligence. En The New York Times. Recuperado de: https://www.nytimes.com/2017/06/24/opinion/sunday/artificial-intelligence-economic-inequality.html

    [16] IPANDETEC. Public consultation ethics and data protection in artificial intelligence: continuing the debate. a contribution from Latin America & the Caribbean. En IPANDETEC. Recuperado de: https://www.ipandetec.org/2019/04/12/public-consultation-ethics-data-protection-artificial-intelligence/


Лучший контент в вашем почтовом ящике

Присоединяйтесь к нашему информационному бюллетеню с лучшим из CEMERI

Связанные статьи

Mejía, Ximena. “La posición de América Latina en el debate sobre la regulación de la Inteligencia Artificial (IA): ¿Quiénes están poniendo las reglas?.” CEMERI, 9 sept. 2022, https://cemeri.org/ru/art/a-inteligencia-artificial-america-latina-bu.