Como podemos governar a IA da melhor forma?

*Por Brad Smith – Vice-Presidente e Presidente 

 

Esta postagem é trecho da introdução escrita por Brad Smith para o relatório “Governando a IA: Um Plano para o Futuro“,da Microsoft. A primeira parte do estudo detalha cinco maneiras pelas quais os governos devem considerar políticas, leis e regulamentações relacionadas à IA. A segunda parte concentra-se no compromisso interno da companhia com a IA ética, mostrando como a empresa está operacionalizando e construindo uma cultura responsável de IA. 

 

“Não pergunte o que os computadores podem fazer, questione o que eles deveriam fazer.” Esse é o título do capítulo sobre IA e ética em um livro que fui coautor, lançado em 2019. Na época, escrevemos que “Essa pode ser uma das perguntas chave de nossa geração.” Quatro anos depois, a questão se tornou central não apenas nas capitais do mundo, mas também em muitas mesas de jantar. 

À medida que as pessoas têm utilizado ou ouvido falar sobre o poder do GPT-4 da OpenAI, um sentimento misto tomou conta. Alguns estão surpresos ou até mesmo maravilhados. Outros ficaram entusiasmados ou até mesmo empolgados. Mas uma parte ficou preocupada, inclusive assustada. Desta forma, o que ficou claro para quase todos é algo que destacamos há quatro anos – somos a primeira geração na história a criar máquinas capazes de tomar decisões que antes só poderiam ser tomadas exclusivamente por pessoas. 

Países ao redor do mundo estão fazendo perguntas gerais. Como podemos usar essa nova tecnologia para resolver nossos problemas? Como podemos evitar ou gerenciar novos problemas que ela possa criar? Como podemos controlar uma tecnologia tão poderosa? 

Essas perguntas exigem não apenas uma conversa ampla e ponderada, mas também uma ação decisiva e eficaz. O relatório Governando a IA: Um Plano para o Futuro oferece algumas ideias e sugestões da Microsoft para algumas dúvidas, baseadas nas lições que aprendemos com o trabalho que temos realizado ao longo de vários anos. O CEO da Microsoft, Satya Nadella, traçou um rumo claro quando escreveu, em 2016, que “talvez o debate mais produtivo que possamos ter não seja sobre o bem versus o mal: mas sobre os valores das pessoas e instituições, que criam essa tecnologia”. 

Desde então, definimos, publicamos e implementamos princípios éticos para orientar nosso trabalho. E desenvolvemos constantemente sistemas de engenharia e governança para colocar esses princípios em prática. Hoje, temos quase 350 pessoas trabalhando em IA responsável na Microsoft, ajudando-nos a implementar as melhores práticas para construir sistemas seguros, confiáveis e transparentes, projetados para beneficiar a sociedade. 

 

Novas oportunidades para melhorar a condição humana 

Os avanços da nossa abordagem nos deram a capacidade e a confiança para enxergar formas cada vez mais amplas de como a IA pode melhorar a vida das pessoas. Nos últimos anos, vimos a tecnologia ajudar a salvar a visão de indivíduos, avançar no desenvolvimento de novas curas para o câncer, gerar novos insights sobre proteínas e fornecer previsões para avisar as pessoas sobre condições climáticas perigosas. Outras inovações estão combatendo ataques cibernéticos e ajudando a proteger os direitos humanos fundamentais, mesmo em nações afetadas por invasões estrangeiras ou guerras civis. 

As atividades cotidianas também serão beneficiadas. Ao atuar como um copiloto na vida das pessoas, o poder dos modelos fundamentais, como o GPT-4, está transformando a busca por informações em uma ferramenta mais poderosa para pesquisa e melhorando a produtividade das pessoas no trabalho. Além disso, a assistência baseada em IA pode ajudar pais e mães que tenham  dificuldade em lembrar como ajudar seu filho de 13 anos com uma tarefa de matemática. 

De muitas maneiras, essa tecnologia oferece talvez até mais potencial para o bem da humanidade do que qualquer invenção que a tenha precedido. Desde a invenção da prensa móvel, há mais de 600 anos, a prosperidade humana tem evoluído em um ritmo acelerado. Invenções como a máquina a vapor, a eletricidade, o automóvel, o avião, a computação e a internet forneceram muitos dos alicerces da civilização moderna. E, assim como a própria prensa móvel, a IA oferece uma nova ferramenta para realmente ajudar na promoção da aprendizagem e do pensamento humano. 

Limites para o futuro 

Outra conclusão igualmente importante é que não é suficiente focar apenas nas muitas oportunidades de usar a IA para melhorar a vida das pessoas. Esta é talvez uma das lições mais importantes do papel das redes sociais. Há pouco mais de uma década, tanto os tecnólogos quanto os comentaristas políticos elogiaram o papel das destas mídias na disseminação da democracia durante a Primavera Árabe. No entanto, cinco anos depois, aprendemos que as redes sociais, assim como tantas outras tecnologias antes delas, se tornariam tanto uma arma quanto uma ferramenta – neste caso, voltadas para a própria democracia. 

Hoje, estamos mais velhos e mais sábios, e precisamos colocar essa sabedoria em prática. Precisamos pensar antecipadamente e de maneira realista sobre os problemas que podem surgir. À medida que a tecnologia avança, é tão importante garantir o controle adequado sobre a IA quanto apontar seus benefícios. Estamos comprometidos e determinados, como empresa, a desenvolver e implantar essa tecnologia de maneira segura e responsável. Reconhecemos, no entanto, que os limites necessários para isso exigem um senso de responsabilidade amplamente compartilhado e não devem ser deixados apenas para as empresas de tecnologia. 

Quando adotamos nossos seis princípios éticos para a IA na Microsoft, em 2018, destacamos um alicerce fundamental: a responsabilidade de garantir que as máquinas continuem sujeitas a uma supervisão efetiva das pessoas, sendo responsáveis por essa operação. Em resumo, devemos sempre garantir que a IA permaneça sob controle humano. Isso deve ser uma prioridade tanto para as empresas de tecnologia quanto para os governos. 

Isso se conecta diretamente a outro conceito essencial. Em uma sociedade democrática, um de nossos princípios fundamentais é que nenhuma pessoa está acima da lei. Nenhum governo está acima da lei. Nenhuma empresa está acima da lei, e nenhum produto ou tecnologia deve estar acima da lei. Isso leva a uma conclusão crítica: as pessoas que projetam e operam sistemas de IA não podem ser responsabilizadas, a menos que suas decisões e ações estejam sujeitas às leis. De muitas maneiras, isso está no cerne do debate em andamento sobre políticas e regulamentações dessa tecnologia. Como os governos podem garantir que a IA esteja sujeita às legislações? Em resumo, qual forma as novas leis, regulamentações e políticas devem assumir? 

 

Um plano de cinco pontos para a governança pública da IA 

Abordamos um plano de cinco pontos para endereçar várias questões atuais e emergentes da IA por meio de políticas públicas, leis e regulamentações. Oferecemos isso reconhecendo que cada parte deste plano se beneficiará de uma discussão mais ampla e exigirá um desenvolvimento mais aprofundado. Mas esperamos que isso possa contribuir construtivamente para o trabalho futuro. 

Primeiro: implementar e construir novos arcabouços de segurança em IA liderados pelo governo. A melhor maneira de ter sucesso muitas vezes é construir com base nas vitórias alcançadas e boas ideias de outras pessoas. Especialmente quando se deseja avançar rapidamente. Neste caso, há uma importante oportunidade para utilizarmos o trabalho concluído apenas a quatro meses atrás pelo Instituto Nacional de Padrões e Tecnologia dos Estados Unidos, ou NIST, na sigla em inglês. Parte do Departamento de Comércio do NIST concluiu e lançou um novo Framework de Gerenciamento de Riscos em IA. 

Oferecemos quatro sugestões concretas para implementar e construir sobre esse framework, incluindo compromissos que a Microsoft está assumindo em resposta a uma recente reunião na Casa Branca com as principais empresas. Também acreditamos que a administração e outros governos podem acelerar o impulso por meio de regras de aquisição baseadas nesse framework. 

Segundo: exigir freios de segurança efetivos para sistemas de IA que controlam infraestruturas críticas.Em alguns setores, opiniões ponderadas estão cada vez mais questionando se podemos controlar satisfatoriamente a IA à medida que ela se torna mais poderosa. Surgem preocupações em relação ao controle da IA sobre instituições que atuam em setores críticos, como a rede elétrica, o sistema de água e o fluxo de tráfego nas cidades. 

Este é o momento certo para discutir essa questão. O plano Governando a IA: Um Plano para o Futuro propõe novos requisitos de segurança que, na prática, criariam freios seguros para sistemas de IA que controlam a operação destas operações. Esses sistemas de segurança à prova de falhas seriam parte de uma abordagem abrangente para a segurança do sistema, mantendo a supervisão humana efetiva, a resiliência e a robustez como prioridades. Em essência, eles seriam semelhantes aos mecanismos de frenagem que engenheiros incorporam em outras tecnologias, como elevadores, ônibus escolares e trens de alta velocidade, para gerenciar com segurança não apenas cenários cotidianos, mas também emergências. 

Nessa abordagem, o governo definiria a classe de sistemas de IA de alto risco, que controlam estas operações críticas e exigiria medidas de segurança como parte de uma abordagem abrangente para a gestão do sistema. Novas leis exigiriam que os operadores incluíssem freios de segurança nos sistemas de IA de alto risco. O governo, então, exigiria que os operadores testassem regularmente os sistemas de alto risco para garantir a eficácia das medidas de segurança. E os sistemas de IA que controlam a operação de infraestruturas críticas  seriam implantados apenas em data centers de licenciados, que garantiriam uma segunda camada de proteção por meio da capacidade de aplicar esses freios de segurança, assegurando, assim, o controle humano efetivo. 

Terceiro: desenvolver uma ampla estrutura legal e regulatória com base na arquitetura tecnológica para a IA.Acreditamos que será necessário ter uma arquitetura legal e regulatória para a IA que reflita a própria arquitetura tecnológica da tecnologia. Em suma, a lei precisará atribuir diferentes responsabilidades regulatórias a diferentes partes envolvidas com base em seu papel na gestão de diferentes aspectos da tecnologia de IA. 

Por esse motivo, o plano inclui informações sobre algumas das peças-chave envolvidas na construção e no uso de novos modelos de IA generativa. Com este contexto, propomos que diferentes leis atribuam responsabilidades regulatórias específicas às organizações que exercem determinadas responsabilidades em três camadas da estrutura tecnológica: a camada de aplicativos, a camada de modelos e a camada de infraestrutura. 

Com estas atribuições de responsabilidades definidas, os governos deverão primeiro aplicar as proteções legais existentes à camada de aplicativos no uso da IA, na qual a segurança e os direitos das pessoas serão impactados, isto porque o impacto desta tecnologia pode variar consideravelmente em diferentes cenários tecnológicos. Em muitas áreas, não precisamos de novas leis e regulamentos. Em vez disso, precisamos aplicar e fazer cumprir as legislações e regulamentos existentes, ajudando as agências e tribunais a desenvolver a expertise necessária para se adaptar aos novos cenários de IA. 

Em seguida, será necessário desenvolver novas leis e regulamentações para modelos de IA de base altamente capazes, que serão melhor implementados por um novo órgão governamental. Isso afetará duas camadas da estrutura tecnológica. A primeira exigirá novas regulamentações e licenciamento para esses modelos em si. E a segunda envolverá obrigações para os operadores de infraestrutura de IA nos quais esses modelos são desenvolvidos e implantados. O plano que segue oferece metas e abordagens sugeridas para cada uma dessas camadas. 

Ao fazer isso, nos baseamos, em parte, em um princípio desenvolvido nas últimas décadas no setor bancário para se proteger contra a lavagem de dinheiro e o uso de serviços financeiros por criminosos ou terroristas. O princípio “Conheça seu Cliente” – ou KYC (na sigla, em inglês) – exige que as instituições financeiras verifiquem a identidade dos clientes, estabeleçam perfis de risco e monitorem transações para ajudar a detectar atividades suspeitas. Faria sentido aplicar esse princípio e adotar uma abordagem KY3C que crie, no contexto da IA, certas obrigações de conhecer a nuvem, os clientes e o conteúdo. 

Em primeiro lugar, os desenvolvedores de modelos de IA designados e poderosos devem “conhecer a nuvem” na qual estes modelos são desenvolvidos e implantados. Além disso, em cenários que envolvam usos sensíveis, a empresa que tem um relacionamento direto com o cliente – seja o desenvolvedor do modelo, o provedor do aplicativo ou o operador da nuvem na qual o modelo está sendo executado – deve “conhecer os clientes” que estão acessando-o. 

Além disso, o público deve ter o direito de “conhecer o conteúdo” que a IA está criando, por meio do uso de uma etiqueta ou outra marca informando às pessoas quando algo como um vídeo ou arquivo de áudio foi produzido por um modelo de IA em vez de um ser humano. Essa obrigação de rotulagem também deve proteger o público contra a alteração de conteúdo original e a criação de “deep fakes”. Isso exigirá o desenvolvimento de novas leis, e haverá muitas questões e detalhes importantes a serem abordados. No entanto, a saúde da democracia e o futuro do discurso cívico se beneficiarão de medidas cuidadosas para desencorajar o uso de novas tecnologias para enganar o público ou expô-lo a fraudes. 

Quarto: promover a transparência e garantir o acesso acadêmico e sem fins lucrativos à IA. Acreditamos que um objetivo público crucial é avançar a transparência e ampliar o acesso aos recursos de IA. Embora existam algumas tensões importantes entre a transparência e a necessidade de segurança, há muitas oportunidades para tornar os sistemas dessa tecnologia mais transparentes de maneira responsável. É por isso que a Microsoft está se comprometendo em divulgar um relatório anual de transparência e tomar outras medidas para expandi-la em nossos serviços de IA. 

Também acreditamos ser essencial ampliar o acesso aos recursos de IA para pesquisa acadêmica e a comunidade sem fins lucrativos. A pesquisa básica, especialmente nas universidades, tem sido de fundamental importância para o sucesso econômico e estratégico dos Estados Unidos desde a década de 1940. No entanto, a menos que os pesquisadores possam obter acesso a recursos computacionais substancialmente maiores, há um risco real de que a pesquisa científica e tecnológica sofra, incluindo a pesquisa em IA. Nosso plano propõe novas medidas, incluindo as que tomaremos em toda a Microsoft, para abordar essas prioridades. 

Quinto: buscar novas parcerias público-privadas para usar a IA como uma ferramenta eficaz para enfrentar os desafios inevitáveis que surgem com novas tecnologias. Uma lição da atualidade é o que as sociedades democráticas podem realizar quando aproveitam o poder da tecnologia e unem os setores público e privado. É uma lição que precisamos construir para lidar com o impacto da IA na sociedade. 

Todos nós nos beneficiaremos de uma dose forte de otimismo realista. A IA é uma ferramenta extraordinária. No entanto, assim como outras tecnologias, ela também pode se tornar uma arma poderosa, e haverá pessoas ao redor do mundo que buscarão usá-la dessa forma. Mas devemos nos encorajar com a frente cibernética e o último ano e meio, tomando como exemplo a guerra na Ucrânia. O que descobrimos é que quando os setores público e privado trabalham juntos, quando aliados com ideias semelhantes se unem, e quando desenvolvemos tecnologia e a usamos como um escudo, isso se torna a ferramenta mais poderosa do que qualquer arma no planeta. 

Agora, é necessário um trabalho importante para usar a IA para proteger a democracia e os direitos fundamentais, proporcionar amplo acesso às habilidades dessa tecnologia que promoverão o crescimento inclusivo e usá-la para avançar nas necessidades de sustentabilidade do planeta. Talvez mais do que qualquer outra coisa, uma onda de novas tecnologias de IA oferece uma oportunidade para pensar grande e agir com audácia. Em cada área, a chave para o sucesso será desenvolver iniciativas concretas e reunir governos, empresas respeitadas e ONGs ativas para promovê-las. Oferecemos algumas ideias iniciais no relatório Governando a IA: Um Plano para o Futuro e esperamos fazer muito mais nos próximos meses e anos. 

 

Governando a IA dentro da Microsoft 

Em última análise, toda organização que cria ou utiliza sistemas avançados de IA precisará desenvolver e implementar seus próprios sistemas de governança. A seção dois deste documento descreve o sistema de governança de IA dentro da Microsoft – onde começamos, onde estamos hoje e como estamos avançando para o futuro. 

Como veremos, o desenvolvimento de um novo sistema de governança para uma nova tecnologia é uma jornada em si. Há uma década, esse campo mal existia. Hoje, a Microsoft tem quase 350 funcionários especializados nessa área, e estamos investindo no próximo ano fiscal, que começa em julho de 2023, para expandir ainda mais esse número. 

Nos últimos seis anos, construímos uma estrutura e sistema de governança de IA mais abrangentes em toda a Microsoft. Não começamos do zero, mas adotamos as melhores práticas para a proteção da cibersegurança, privacidade e segurança digital. Isso faz parte do abrangente sistema de gerenciamento de riscos empresariais (ERM) da empresa, que se tornou uma parte crítica do gerenciamento de corporações e muitas outras organizações no mundo atual.

Quando se trata de IA, primeiro desenvolvemos princípios éticos e, em seguida, tivemos que traduzi-los em políticas corporativas mais específicas. Agora estamos na versão 2 do padrão corporativo que incorpora esses princípios e define práticas mais precisas para nossas equipes de engenharia seguirem. Implementamos o padrão por meio de treinamento, ferramentas e sistemas de teste que estão em constante evolução. Isso é apoiado por processos adicionais de governança que incluem monitoramento, auditoria e medidas de conformidade. 

Como em tudo na vida, aprendemos com a experiência. No que diz respeito à governança da IA, algumas de nossas lições mais importantes vieram do trabalho detalhado e necessário para analisar casos de uso específicos e sensíveis da IA. Em 2019, criamos um programa de revisão de temas sensíveis para submeter os casos de uso mais inovadores e sensíveis a uma revisão rigorosa e especializada que resulta em orientações personalizadas. Desde então, concluímos aproximadamente 600 revisões e o ritmo dessa atividade acelerou para acompanhar o avanço da IA, com quase 150 dessas revisões ocorrendo nos últimos 11 meses. 

Tudo isso se baseia no trabalho que fizemos e continuaremos a fazer para promover a IA responsável por meio da cultura da empresa. Isso significa contratar novos talentos diversos para expandir nosso ecossistema de IA responsável e investir nos profissionais que já temos na Microsoft para desenvolver habilidades e capacitá-los a pensar amplamente sobre o impacto potencial dos sistemas de IA em indivíduos e na sociedade. Também significa que, muito mais do que no passado, a fronteira da tecnologia exige uma abordagem multidisciplinar que combina grandes engenheiros com profissionais talentosos de outras áreas, como a de humanas. 

Tudo isso é oferecido no relatório Governando a IA: Um Plano para o Futuro com o espírito de que estamos em uma jornada coletiva para criar um futuro responsável para a inteligência artificial. Podemos todos aprender uns com os outros. E, não importa o quão bom possamos achar que algo é hoje, todos precisaremos continuar melhorando. À medida que as mudanças tecnológicas aceleram, o trabalho de governar a IA de maneira responsável deve acompanhar esse ritmo. Com os compromissos e investimentos corretos, acreditamos que isso é possível. 

Tags: ,

Posts Relacionados