;

Inteligência Artificial, princípios e recomendações da OCDE (Parte II)

Inteligência Artificial, princípios e recomendações da OCDE (Parte II)
Na literatura especializada já se encontram investigações sobre os desdobramentos internacionais dessas diretrizes.

Prosseguindo na análise da “Recommendation of the Council on Artificial Intelligence”, documento elaborado pela Organização para a Cooperação e Desenvolvimento Econômico (OCDE) para a estruturação de padrões internacionais direcionados à Inteligência Artificial (IA), abordam-se os princípios e recomendações que constituem as diretrizes da organização para promover confiança pública e benefícios a todas as partes interessadas.

(1) Crescimento inclusivo, desenvolvimento sustentável e bem-estar: benefícios que devem ser proporcionados às pessoas humanas e ao planeta. O documento menciona rol exemplificativo, incluindo as finalidades de aumentar as capacidades humanas, promover criatividade e inclusão de populações sub-representadas, reduzir desigualdades (econômicas, sociais e de gênero) e proteger o meio-ambiente.

(2) Valores centrados no ser humano e equidade: obrigação de respeito aos direitos fundamentais e humanos, valores democráticos, Estado de Direito e diversidade. 

Pretende-se garantir a supervisão e/ou intervenção humana, sempre que necessário, em algum momento da disponibilização subsequente de produtos e serviços (validação simultânea ou posterior, desligamento durante o funcionamento e restrição das capacidades operacionais em determinadas circunstâncias).

Importa sublinhar que em documentos dessa natureza os direitos que se buscam proteger se relacionam a riscos potenciais das novas tecnologias. Nesse caso, o rol de direitos que o documento explicita liga-se a três principais riscos que podem ser causados pelos sistemas de IA: violação da vida privada (privacidade e proteção de dados), vieses que importem em discriminações proibidas (não discriminação, equidade, diversidade e justiça) e redução dos postos de trabalho (direitos trabalhistas internacionalmente reconhecidos).

(3) Transparência e explicabilidade: a transparência relaciona-se ao fornecimento de informações significativas que permitam aos usuários entenderem quando estão tratando com sistemas de IA e não com seres humanos. A explicabilidade destina-se a mitigar o risco da opacidade, isto é, a dificuldade de auditar e/ou conferir o processo de tomada de decisão, previsão ou recomendação realizado por sistemas de IA relacionando-se, igualmente, a eventuais obstáculos de compreensão, na perspectiva de usuários humanos. 

Uma vez atendido esse princípio, é possível as autoridades verificar diante de caso concreto a legislação e o regime de responsabilidade aplicáveis aos resultados provocados por decisões envolvendo IA. Aos usuários adversamente afetados permite-se o questionamento judicial dos resultados gerados pelos sistemas de IA em informações claras e fáceis.

(4) Robustez, segurança e proteção: exigência de gestão e avaliação dos riscos dos sistemas de IA durante toda a sua vida útil, de forma que funcionem segundo o planejamento prévio, sem externar riscos de segurança irracionais. Assim, se torna viável a investigação do conjunto de dados utilizados no treinamento e funcionamento, de processos e decisões tomadas pela IA.

(5) “Accountability”: os atores engajados no desenvolvimento de sistemas de IA devem ser responsabilizados de acordo com, no mínimo, esses princípios.

Esse é um desafio para os Estados nacionais, no que toca a atribuição de regime de responsabilidade para atores, aplicações e sistemas tão diversificados entre si. Mais uma vez, essa discussão precisa orientar-se pela cautela inerente a análise do quadro legal e regulamentar existente atualmente diante dos novos desafios e pelo reconhecimento da rapidez com que essa tecnologia evolui, a qual não consegue ser acompanhada pela produção normativa ou atividade regulatória.

As recomendações estruturam-se em torno de objetivos estratégicos que podem ser adotados pelos atores estatais, quais sejam: (1) facilitar o investimento público  e privado, de modo a estimular a inovação em questões técnicas desafiadoras e conjuntos de dados representativos; (2) organizar mecanismos de compartilhamento seguro, justo, legal e ético de dados e conhecimento, com infraestrutura e tecnologias digitais acessíveis; (3) apoiar a transição ágil do estágio de P&D para implementação e operação de sistemas de IA revisando, quando apropriado, normas, regulamentos e mecanismos para checagem de conformidade; (4) capacitar as pessoas para o uso e a interação com sistemas de IA organizando programas de treinamento profissional; (5) governos e partes interessadas devem cooperar ativamente para promover princípios, compartilhamento de conhecimento e desenvolvimento de padrões.

Na literatura especializada já se encontram investigações sobre os desdobramentos internacionais dessas diretrizes. À medida que as iniciativas para legislar e regular os sistemas de IA vão surgindo ao redor do mundo será possível observar com mais assertividade os reflexos do documento organizado pela OCDE, formado pelo conteúdo mínimo a fim de assegurar que se desenvolvam sistemas de IA confiáveis.

 

Por: Wilson Sales Belchior