Gabriela Ramos: “O desafio que o Chat GPT propõe é uma bênção disfarçada: impulsiona a atuar sobre algo tão impactante”

Gabriela Ramos: “O desafio que o Chat GPT propõe é uma bênção disfarçada: impulsiona a atuar sobre algo tão impactante”
Subdiretora Geral de Ciências Sociais e Humanas da UNESCO.

Uma inteligência artificial que situe o ser humano no centro será possível se sua governança parte do acordo e do compromisso de múltiplos atores. A inovação ao serviço da humanidade será tal, se usar a ética incorporada desde a origem. Governos, organismos multilaterais, empresas tecnológicas, centros de conhecimento e sociedade civil reforçaram essa proposta no IIº Foro Global sobre a Ética da Inteligência Artificial organizado pela UNESCO e celebrado em Kranj, Eslovênia, a 5 e 6 de fevereiro. A organização tomou o mandato de ativar a conversa e propor as soluções em torno à ética da IA. Somos Ibero-América conversou com Gabriela Ramos, Subdiretora Geral de Ciências Sociais e Humanas do organismo para conhecer os últimos avanços e acordos.

 

O Foro Global da Ética e da Inteligência Artificial é parte da infraestrutura que a UNESCO estabeleceu para difundir e implementar o que continua sendo o único padrão global da ética da inteligência artificial: a Recomendação para a Ética da IA adotada em 2021 pelos 193 Estados membros das Nações Unidas. Como é aplicada, de forma específica, essa recomendação e quais avanços foram produzidos em seu desdobramento?

A recomendação é um padrão que traduz princípios humanistas, de direitos humanos, dignidade, justiça e igualdade em ações muito concretas para a prestação de contas, a responsabilidade e a transparência dos desenvolvimentos tecnológicos, que se translada a questões de política pública com um mecanismo de implementação específico. Quando foi adotado nos sentíamos um pouco sozinhos porque falar de ética, amiúde, se entende como um freio à inovação e ao investimento, que é o que os países procuram. A conversa sobre os vieses, as discriminações, as desigualdades e a alta concentração destas tecnologias em poucas empresas já estava sobre a mesa. É a raiz do impulso que a inteligência artificial generativa toma quando surge a preocupação acerca de como regular estas tecnologias e por quê são lançadas ao mercado sem ter uma ideia clara de qual é seu impacto. Desde então o trabalho da UNESCO ganhou apoio e visibilidade.

No Foro da Eslovênia participaram até 20 representantes ministeriais dos países mais envolvidos na aplicação da metodologia RAM (Readiness, Assessment, Methodology), que é nosso diagnóstico para avaliar a preparação dos Estados, e todos compartilharam e discutiram sobre como vai a aplicação dessa RAM, o que significa que, de alguma maneira, estão fazendo seu este padrão.

 

Contribuições da UNESCO

Em 2021 a UNESCO fez uma contribuição decisiva para uma governança eficaz e ética da IA mediante uma normativa global adotada por todos os Estados membro: a Recomendação sobre a ética da inteligência artificial e lidera sua aplicação através de ferramentas e metodologias como as Avaliações de Preparação e de Impacto Ético.

Metodologia para Avaliação da Preparação (RAM). Criada para ajudar os Estados a identificar seu estágio de preparação e proporcionar uma base para que a UNESCO adote seu apoio ao desenvolvimento de capacidades.

Avaliação do Impacto Ético (EIA). Trata-se de um processo estruturado que ajuda as equipes de projetos de IA, em colaboração com as comunidades afetadas, a identificar e avaliar as repercussões que pode ter um sistema de IA. Permite refletir sobre seu impacto potencial e identificar as ações de prevenção de danos necessárias.

 

Tivemos 61 países representados no foro: Estados Unidos e China, outras economias do G-8, países da Latino-América e Caribe, África, Ásia e países árabes, todos com uma voz que resulta muito motivadora. Surgiu um consenso de que necessitamos retomar o controle de quem decide sobre o desdobramento dos avanços tecnológicos. É muito bom que as empresas inovem e esse é, evidentemente, seu papel, mas os governos têm a responsabilidade de criar os marcos normativos a nível nacional para evitar as expressões mais negativas destas tecnologias. Esse foi um dos resultados mais interessantes do encontro: que já não estamos discutindo assuntos teóricos, como é feito em muitas outras reuniões e conferências globais, senão que estão sendo aterrizadas questões práticas sobre como fazer com que os algoritmos sejam transparentes, como gerenciar os desenvolvimentos de código aberto (Open Source) e como evitar abusos.

 

Já estamos descendo para o terreno de jogo com regras específicas?

Em temas como o viés de gênero dos modelos de IA estamos dando respostas muito concretas. As recomendações já estavam aí e agora são trazidas a nível popular. Ou seja, se colocamos foco no México, por exemplo, pode ser feita uma avaliação de sua situação e realizar recomendações sobre quais políticas aplicar para vigiar os vieses de gênero. Neste debate não há uma grande diferença na reflexão do papel dos Estados e dos governos, tanto no Grande Norte como no Grande Sul. Todos sabem que têm de estar mais bem equipados e devem se dotar de instituições e marcos normativos mais efetivos. Creio que já há uma conscientização de que a decisão de se são respeitados ou não os direitos humanos não pode ficar em mãos das empresas ou do setor privado.

 

Nações Unidas indica que há três esferas que decidem o rumo e a distribuição da inovação tecnológica: as decisões políticas, os investimentos privados e os desenvolvimentos dos centros de conhecimento. A UNESCO poderia ser o árbitro da relação entre essas esferas?

No Foro da Eslovênia foi muito importante a presença de representantes do setor privado, oito em total, com muito a aportar neste campo. A Diretora Geral da UNESCO, Audrey Azulay, veio à Eslovênia para firmar uma aliança com o setor privado que o Conselho Empresarial para a Ética da IA cria e que reflete o Compromisso das Empresas do Setor Privado em colaborar com a UNESCO para construir um modelo ético de inteligência artificial responsável. Muitas outras empresas já levantaram a mão e querem estar nesse Conselho Empresarial.

O interessante é que não se trata de um debate contra as empresas nem tampouco para exaltar os governos. É uma conversa na qual todos temos responsabilidade e as empresas têm de ser parte deste consenso porque, se não, não vai funcionar.

 

Surge a preocupação sobre como regular estas tecnologias e porque são lançadas ao mercado sem ter uma ideia clara de qual é seu impacto

 

Passou-se, então de o quê discutir a como discutir?

Já temos o padrão e sua reafirmação implica que estas tecnologias têm de se alinhar com os objetivos humanos. Isso já não se discute mais. Agora estamos debatendo sobre como fazê-lo e aí é onde há de se conhecer e entender melhor a raiz tecnológica porque não pode se regular algo que não se entende. Também a raiz do Foro da Eslovênia foi criado o Observatório da Ética de Inteligência Artificial, que lançamos junto à União Internacional de Telecomunicações (ITU) e o Alan Turing Institute. Nele vamos a verter todo o conhecimento que estamos gerando para que possa ser compartilhado e que as aprendizagens fluam.

No tocante aos Estados membros foi muito motivador ver os países intercambiar as conclusões de suas RAM. Senti-me muito orgulhosa ao comprovar que a metodologia está sendo adotada como algo próprio e que começa a ser uma ferramenta, um padrão do qual os países se apropriam. Já não é a UNESCO quem lhes diz o que têm de fazer, vamos acompanhá-los nessa reflexão e nas soluções que eles propuserem e eles também vão informar de seu trabalho. Isso vai nos ajudar a entender melhor quais intervenções públicas podem ser efetivas para incentivar um melhor desenvolvimento das tecnologias para nossos objetivos humanos.

 

É uma questão de pura vontade e decisão política?

Defendo com paixão a importância das políticas. Caso sejam estabelecidas, por exemplo, cotas para que as empresas tenham representação de mulheres em suas equipes de desenvolvimento ou em seus órgãos de governos, as empresas tecnológicas têm de cumpri-las. Não é tão difícil e são intervenções de ação afirmativa.

A questão é entender melhor a relação entre a política e os resultados. No caso da igualdade de gênero existem múltiplos mecanismos, mas na questão da diversidade cultural, por exemplo, é menos evidente que tipo de ferramentas políticas podem ser utilizadas. É importantíssimo que não se perca a diversidade cultural no desenvolvimento destas tecnologias, porque a maioria estão em inglês ou em chinês. Os dados que são reunidos para o treinamento da IA estão, majoritariamente, nesses idiomas e, ainda que seja utilizado mais além dos Estados Unidos ou da China, a tecnologia já vem de fábrica com essa conformação cultural. Os países têm de fazer um grande esforço de compilação de dados em seu idioma para conservar essa diversidade que não devemos perder.

 

Os governos têm a responsabilidade de criar marcos normativos nacionais para evitar as expressões mais negativas destas tecnologias

 

A governança dos dados é complicada. Há muito o que voltar a propor para que estas tecnologias sejam inclusivas, beneficiem a todos e equilibrem uma proporção na que 90% do mundo poderia ser consumidor de uma tecnologia que não é inclusiva. 

Se em um determinado momento um país tem de utilizar inteligência artificial para administrar seu sistema de saúde, este não pode estar baseado em plataformas propriedade de empresas multinacionais. Essas considerações são fundamentais. Mas, o mais importante é que estes 61 países que vieram já estão prontos para obter suas RAM e poder discuti-los a nível regional. Na América Latina já foi lançado o Conselho Regional, na África vamos lançá-lo, Ásia é uma área muito dinâmica e, de fato, na UNESCO recebemos propostas de vários países asiáticos que querem organizar o foro de 2025.

O movimento para mudar a forma na que estivemos pensando nestes temas já está em andamento. Mais além de discutir os temas existenciais, agora estamos centrados em ver de que maneira podemos reduzir o impacto negativo que estão tendo, que é um fato.

 

Na geoestratégia ou na geopolítica da IA se aprecia que a China possui uma capacidade tecnológica inaudita, os Estados Unidos aplicam uma lógica de prevalência daqueles que ganharem a corrida da inovação e a União Europeia tem, desde o princípio, a intenção de canalizar algo tão poderoso em benefício do ser humano. Que papel desempenha a Ibero-América? O Chile, por exemplo, está tomado medidas muito interessantes em termos de proteção de sua cidadania.

Em outubro de 2023 foi celebrado o primeiro Foro Regional sobre a Ética da Inteligência Artificial em Santiago do Chile, convocado pela Ministra Aisén Etcheverry do Ministério de Ciência, Tecnologia, Conhecimento e Inovação do país com o apoio do Banco de Desenvolvimento da América Latina e o Caribe (CAF). Ali se encontraram 23 países dos quais a metade estavam fazendo seu Readiness Assessment Methodology. A região está na vanguarda porque foi uma das primeiras em deixar de falar dos desafios, dos danos e dos perigos e começar a trabalhar em soluções mais concretas para determinar quais eram suas competências e capacidades e de que forma havia de se investir para entender estas tecnologias. Se, além disso, são criados centros de pesquisa, poderia se dizer que a Ibero-América realmente está avançando.

 

Mudando o panorama da governança da IA

 

Essa foi a epígrafe do Foro global da Eslovênia, no qual países que se encontram em distintos níveis de desenvolvimento tecnológico e político compartilharam aprendizagens, incorporando na conversa o setor privado, o mundo acadêmico e uma sociedade civil muito mais ampla. Estas foram suas ações mais destacadas:

  • Sessões ministeriais nas quais os representantes de governos nacionais expuseram o conhecimento extraído de seus exercícios de Avaliação de Preparação (RAM).
  • Debates temáticos sobre gênero e IA na plataforma Women4Ethics e sobre um futuro inclusivo da IA.
  • Lançamento do Observatório Global de Ética da IA. Nele serão expostas as regulações e medidas de controle que estão sendo implantadas pelos 193 Estados membros da organização para assegurar um desenvolvimento ético da inteligência artificial (IA) a escala nacional. A plataforma pretende ser uma espécie de espelho “que evidencie o que os Estados estão fazendo, realmente, parar assegurar tecnologias éticas, mais além de grandes declarações”, assinalou Gabriela Ramos. “A inteligência artificial é proposta como um mero avanço tecnológico quando a grande reflexão deveria de ser como alinhar esses desenvolvimentos tão impressionantes com nossos objetivos como sociedades e seres humanos”, sublinhou.
  • Aliança com o setor privado: Conselho Empresarial para a Ética da IA. Foi estabelecido um Compromisso das Empresas do Setor Privado de colaborar com a UNESCO para construir um modelo ético de inteligência artificial responsável, pelo quê, oito empresas tecnológicas mundiais se comprometeram a trabalhar para desenvolver e utilizar sistemas de IA de forma ética.
  • Lenovo Group, LG AI Research, Mastercard, Microsoft, Saisforce, GSMA, INNIT e Telefónica se comprometem a manter e garantir os direitos humanos durante o projeto, desenvolvimento, compra, venda e uso da tecnologia de IA; realizar a devida diligência para cumprir com as normas de segurança; identificar os efeitos adversos da IA e tomar medidas oportunas para prevenir, mitigar ou remediar esses efeitos adversos em conformidade com a legislação interna.

 

A União Europeia decidiu abraçar uma visão de medição de riscos, o que é interessante porque reconhece que a tecnologia que existe neste momento não é a que teremos amanhã. O lançamento do ChatGPT representou uma disrupção e um exemplo de que podem ser dados saltos quânticos. Estas tecnologias aprendem por si mesmas e existe a certeza de que a seguinte geração da inteligência artificial vai ser cinco vezes mais poderosa e capaz. Em lugar de assinalar as tecnologias atuais ou antecipar as futuras, a UE deixa aberto que, quando existir a percepção de que os desenvolvimentos e aplicações vão ter um impacto muito profundo, deverão se submeter a uma série de critérios de prestação de contas e de revisões. Isto é muito parecido ao que foi decidido pelo presidente Biden em sua ordem executiva que fala de uma avaliação dos grandes modelos de linguagem (LLM) das IAs, mediante a qual a empresa tem de demonstrar que superou os requisitos de segurança e de proteção aos usuários.

Na China também optaram por uma posição similar. Todas estas propostas estão tratando de reorganizar o equilíbrio de poder entre o setor privado e os atores públicos.

O que me agrada do nosso trabalho na América Latina é que já foi aberta a conversa sobre a possibilidade de contar com um ente regulador das telecomunicações. São estas entidades as que deveriam estar sendo os supervisores destas tecnologias junto aos ministérios cuja competência é a digitalização e que já estão habituados a promover as tecnologias, atrair investimentos e tentar estar à vanguarda. Se não são eles os que focam em reduzir os riscos, então, quem?

 

Que outras aprendizagens estão sendo incorporadas neste trajeto?

Também aprendemos que há de se sentar à mesa todos os ministérios que têm algo a dizer, além do setor privado e a academia. Creio que há uma base muito interessante na América Latina. Existe um acordo de colaboração com o CAF e gostaríamos também de ter uma associação com grupos de interesse que estão desdobrando aspectos interessantes como é o caso da SEGIB com os direitos digitais que se refletem em sua Carta aprovada em consenso por 22 países. Nas não se trata tanto de qual é a visão latino-americana, senão de quanto a Latino-América pode avançar em demonstrar soluções concretas. Nisso é no que está focado o Conselho Regional, que foi estabelecido para avançar na implementação das RAM e que está, justamente, aproveitando todo o conhecimento que estão arrojando. A discussão organizada com países que têm mais similitudes se torna mais rica e mais eficaz quanto a resultados. O Brasil, a Costa Rica, o Chile, o México, o Panamá, o Paraguai e o Uruguai estão fazendo suas RAM e colocá-las em comum permite trazer ao Foro Global uns resultados e umas propostas mais sólidas.

 

A América Latina está na Vanguarda; foi uma das primeiras regiões em trabalhar em soluções concretas para entender estas tecnologias

 

É este um bom momento para ressignificar as Nações Unidas como árbitro das soluções aos desafios do planeta?

Penso que há um redescobrimento da grande contribuição que as instituições internacionais podem fazer. E isso é uma boa notícia. Às vezes em que penso que o desafio apresentado pelo ChatGPT foi uma bênção disfarçada porque impulsiona a atuar sobre algo tão impactante. O fato de que o Foro da Eslovênia tenha tido 50 vezes mais visibilidade, impacto, participação e resultados do que eu mesma teria pensado, nos diz que há uma revalorização importante da contribuição da UNESCO.

Sempre estive no âmbito multilateral, primeiro na OCDE e há três anos na UNESCO e diria que sim, que estamos em um momento muito importante para a organização porque é uma oportunidade de valorizar nosso mandato, de pensar, de utilizar as ciências, de propor o humano.

As ciências sociais e humanas estão sendo chamadas, novamente, a elucidar todos estes temas tão importantes como os comportamentos de nossos jovens, o valor das democracias, e este, não é um tema tecnológico, é um tema social. Estou muito entusiasmada porque vejo que há uma revalorização do que podem dizer as ciências sociais e humanas a respeito de como manejar estes desenvolvimentos tecnológicos. O que sim é importante e do que está se conversando com outras organizações internacionais é evitar reinventar o “fio negro” e a duplicação de esforços. Nós já temos um padrão global e não seria operativo que o Advisory Body de Nações Unidas sobre a IA reinventasse outra coisa, abrindo o espaço a repensar algo que já foi negociado.

Quando me incorporei à UNESCO, a Recomendação sobre a Ética da IA já tinha sido redigido e foram mudadas muitas coisas, mas existia uma base bem assentada que incorporava o mais importante de forma detalhada. Cada parágrafo fala de reequilibrar as ações e de pôr as pessoas no centro desde uma perspectiva de direitos e dignidade humana. Podemos dizer que o padrão global já existe, agora é necessário alavancar sua implementação, mais do que repensar como são acordadas que tipo de decisões ou narrativas.