Conhecendo o momento da IA: avançando no futuro por meio da Inteligência Artificial responsável

*Por Brad Smith, vice-chair & presidente da Microsoft 

 

No início do verão passado, um pequeno grupo de líderes seniores e especialistas responsáveis ​​em IA da Microsoft começaram a usar uma tecnologia da OpenAI semelhante ao que o mundo agora conhece como ChatGPT. Mesmo para quem trabalhou de perto com os desenvolvedores dessa tecnologia na OpenAI desde 2019, o resultado mais recente parecia notável. Os desenvolvimentos de IA que esperávamos concluir por volta de 2033 chegariam em 2023. 

Olhando para trás na história da nossa indústria, alguns anos decisivos se destacam. Por exemplo, o uso da internet explodiu com a popularidade do navegador em 1995, e o crescimento do smartphone acelerou em 2007 com o lançamento do iPhone. Agora é provável que 2023 marque um ponto de inflexão crítico para a inteligência artificial. As oportunidades para as pessoas são grandes e as responsabilidades para nós que desenvolvemos essa tecnologia são ainda maiores. Precisamos usar este ano divisor de águas não apenas para lançar novos avanços de IA, mas para abordar de forma responsável e eficaz as promessas e os perigos que estão por vir. 

As apostas são altas. A IA pode muito bem representar o avanço tecnológico mais importante de nossa vida. E embora isso seja algo grandioso de se dizer, há boas razões para isso. A IA de ponta de hoje é uma ferramenta poderosa para promover o pensamento crítico e estimular a expressão criativa. Torna possível não apenas buscar informações, mas também buscar respostas para perguntas. Ela pode ajudar as pessoas a descobrir insights em meio a dados e processos complexos, e também acelera nossa capacidade de expressar o que aprendemos mais rapidamente. Talvez o mais importante seja que a IA fará todas essas atividades de maneira cada vez melhor nos próximos meses e anos. 

Eu tive a oportunidade por muitos meses de usar não apenas o ChatGPT, mas os serviços internos de IA em desenvolvimento dentro da Microsoft. Todos os dias, me pego aprendendo novas maneiras de aproveitar ao máximo a tecnologia e, ainda mais importante, pensando nas dimensões mais amplas que virão dessa nova era da IA. Perguntas não faltam. 

Por exemplo, o que isso vai mudar? 

A resposta curta é quase tudo. Porque, como nenhuma tecnologia antes dela, esses avanços da IA aumentam a capacidade da humanidade de pensar, raciocinar, aprender e se expressar. A revolução industrial está agora chegando ao campo do conhecimento, que é fundamental para tudo. 

Isso traz grandes oportunidades para melhorar o mundo. A IA pode impactar positivamente a produtividade e estimulará o crescimento econômico. Ela também reduzirá o trabalho manual em muitos empregos e, quando usada de forma eficaz, ajudará as pessoas a serem mais criativas em seu trabalho e impactantes em suas vidas. A capacidade de descobrir novos insights em grandes conjuntos de dados impulsionará novos avanços na medicina, novas fronteiras na ciência, novas melhorias nos negócios e novas e mais fortes defesas para segurança cibernética e nacional. 

Todas as mudanças serão boas? 

Embora eu desejasse que a resposta fosse sim, é claro que não é o caso. Como toda tecnologia anterior, algumas pessoas, comunidades e países transformarão esse avanço da ferramenta em uma arma. Alguns, infelizmente, usarão essa tecnologia para explorar as falhas da natureza humana, deliberadamente direcionar pessoas com informações falsas, minar a democracia e explorar novas maneiras de avançar na busca do mal. Infelizmente, as novas tecnologias geralmente trazem à tona o melhor e o pior das pessoas. 

Talvez mais do que tudo, isso cria um profundo senso de responsabilidade que será manifestado em um nível para todos nós, enquanto pessoas e consumidores comuns, e em um nível ainda mais alto, para aqueles envolvidos no desenvolvimento e implantação da própria tecnologia. 

Há dias em que estou otimista e momentos em que estou pessimista sobre como a humanidade usará a IA. Mais do que tudo, todos nós precisamos ser determinados. Devemos entrar nesta nova era com entusiasmo pela promessa, mas com os olhos bem abertos e decididos a enfrentar as inevitáveis armadilhas que também estão por vir. 

A boa notícia é que não estamos começando do zero. 

Na Microsoft, trabalhamos para construir uma infraestrutura de IA responsável desde 2017. Isso aconteceu em conjunto com um trabalho semelhante nos campos de segurança cibernética, privacidade e segurança digital. Ele está conectado a uma estrutura maior de gerenciamento de riscos corporativos que nos ajudou a criar os princípios, políticas, processos, ferramentas e sistemas de governança para uma IA responsável. Ao longo do caminho, trabalhamos e aprendemos juntos com os igualmente comprometidos especialistas em IA da OpenAI. 

Agora devemos nos comprometer novamente com essa responsabilidade e convocar os últimos seis anos de trabalho para fazer ainda mais e avançar ainda mais rápido. Tanto na Microsoft quanto na OpenAI, reconhecemos que a tecnologia continuará evoluindo e estamos comprometidos com o envolvimento e a melhoria contínua. 

 

A base para uma IA responsável 

Por seis anos, a Microsoft investiu em um programa entre empresas para garantir que nossos sistemas de IA fossem responsáveis desde o design. Em 2017, lançamos o Comitê Aether com pesquisadores, engenheiros e especialistas em políticas para focar em questões de IA responsável e ajudar a elaborar os princípios de IA que adotamos em 2018. Em 2019, criamos o Escritório de IA responsável para coordenar a governança da ferramenta e lançamos a primeira versão do nosso padrão de IA responsável, uma estrutura para traduzir nossos princípios de alto nível em orientações acionáveis para nossas equipes de engenharia. Em 2021, descrevemos os principais blocos de construção para operacionalizar esse programa, incluindo uma estrutura de governança expandida, treinamento para equipar nossos funcionários com novas habilidades e processos e ferramentas para apoiar a implementação. E, em 2022, fortalecemos nosso Padrão de IA Responsável e o levamos para sua segunda versão. Isso define como construiremos sistemas de IA usando abordagens práticas para identificar, medir e mitigar danos antecipadamente e garantir que os controles sejam projetados em nossos sistemas desde o início. 

Nosso aprendizado com o design e a implementação de nosso programa de IA responsável tem sido constante e crítico. Uma das primeiras coisas que fizemos no verão de 2022 foi contratar uma equipe multidisciplinar para trabalhar com a OpenAI a fim de avançar na pesquisa existente e avaliar como a tecnologia mais recente funcionaria sem nenhuma proteção adicional aplicada a ela. Como acontece com todos os sistemas de IA, é importante abordar os esforços de criação de produtos com uma linha de base inicial que forneça uma compreensão profunda não apenas dos recursos de uma tecnologia, mas de suas limitações. Juntos, identificamos alguns riscos bem conhecidos, como a capacidade de um modelo gerar conteúdo que perpetua estereótipos, bem como a capacidade da tecnologia de fabricar respostas convincentes, mas factualmente incorretas. Como em qualquer aspecto da vida, a primeira chave para resolver um problema é entendê-lo. 

Com o benefício dessas percepções iniciais, os especialistas em nosso ecossistema de IA responsável deram passos adicionais. Nossos pesquisadores, especialistas em políticas e equipes de engenharia uniram forças para estudar os possíveis danos da tecnologia, criar pipelines de medição sob medida e iterar estratégias de mitigação eficazes. Grande parte desse trabalho não tinha precedentes e alguns deles desafiaram nosso pensamento existente. Tanto na Microsoft quanto na OpenAI, as conquistas progrediram rapidamente. Isso reforçou para mim a profundidade e a amplitude do conhecimento necessário para avançar no estado ideal da IA responsável, bem como a crescente necessidade de novas normas, padrões e leis. 

 

Construindo o futuro sobre esta fundação 

Ao olharmos para o futuro, faremos ainda mais. À medida que os modelos de IA continuam avançando, sabemos que precisaremos abordar questões de pesquisa novas e abertas, fechar lacunas de medição e projetar novas práticas, padrões e ferramentas. Vamos abordar a estrada à frente com humildade e compromisso de ouvir, aprender e melhorar todos os dias. 

Mas nossos próprios esforços e os de outras organizações afins não serão suficientes. Este momento transformador para a IA exige uma visão mais ampla dos impactos da tecnologia – positivos e negativos – e um diálogo muito mais amplo entre as partes interessadas. Precisamos ter conversas amplas e profundas e nos comprometer com uma ação conjunta para definir as barreiras para o futuro. 

Acreditamos que devemos nos concentrar em três objetivos principais: 

Primeiro, devemos garantir que a IA seja construída e usada de forma responsável e ética. A história nos ensina que tecnologias transformadoras como a IA exigem novas regras. Esforços proativos e autorregulatórios de empresas responsáveis ajudarão a preparar o caminho para essas novas leis, mas sabemos que nem todas as organizações adotarão práticas responsáveis voluntariamente. Os países e as comunidades precisarão usar processos democráticos de elaboração de leis para se envolver em conversas com toda a sociedade sobre onde devem ser traçadas as linhas para garantir que as pessoas tenham proteção sob a lei. Em nossa opinião, as regulamentações eficazes de IA devem se concentrar nos aplicativos de maior risco, ser focadas em resultados e duráveis diante do rápido avanço das tecnologias e das mudanças nas expectativas da sociedade. Para espalhar os benefícios da IA o mais amplamente possível, as abordagens regulatórias em todo o mundo precisarão ser interoperáveis e adaptáveis, assim como a própria IA. 

Em segundo lugar, devemos garantir que a IA promova a competitividade internacional e a segurança nacional. Embora desejemos que fosse diferente, precisamos reconhecer que vivemos em um mundo fragmentado, onde a superioridade tecnológica é fundamental para a competitividade internacional e a segurança nacional. A IA é a próxima fronteira dessa competição. Com a combinação de OpenAI e Microsoft, e DeepMind dentro do Google, os Estados Unidos estão bem posicionados para manter a liderança tecnológica. Outros já estão investindo, e devemos procurar expandir essa base entre outras nações comprometidas com os valores democráticos. Mas também é importante reconhecer que o terceiro protagonista nesta próxima onda de IA é a Academia de Inteligência Artificial de Pequim. E, na semana passada, o Baidu da China se comprometeu com um papel de liderança em IA. Os Estados Unidos e as sociedades democráticas em geral precisarão de vários e fortes líderes tecnológicos para ajudar no avanço da IA, com liderança mais ampla em políticas públicas sobre tópicos como dados, infraestrutura de supercomputação de IA e talentos. 

Em terceiro lugar, devemos garantir que a IA sirva à sociedade de forma ampla, não restrita. A história também mostrou que avanços tecnológicos significativos podem superar a capacidade de adaptação de pessoas e instituições. Precisamos de novas iniciativas para acompanhar o ritmo, para que os trabalhadores possam ser capacitados pela IA, os alunos possam alcançar melhores resultados educacionais e indivíduos e organizações possam desfrutar de um crescimento econômico justo e inclusivo. Nossos grupos mais vulneráveis, incluindo crianças, precisarão de mais apoio do que nunca para prosperar em um mundo alimentado por IA, e devemos garantir que esta próxima onda de inovação tecnológica melhore a saúde mental e o bem-estar das pessoas, em vez de erodi-los gradualmente. Por fim, a IA deve servir às pessoas e ao planeta. A IA pode desempenhar um papel fundamental para ajudar a enfrentar a crise climática, inclusive analisando os resultados ambientais e avançando no desenvolvimento da tecnologia de energia limpa, além de acelerar a transição para eletricidade limpa. 

Para atender a esse momento, vamos ampliar nossos esforços de políticas públicas para apoiar esses objetivos. Estamos empenhados em formar parcerias novas e mais profundas com a sociedade civil, academia, governos e indústria. Trabalhando juntos, todos nós precisamos obter uma compreensão mais completa das preocupações que devem ser abordadas e das soluções que provavelmente serão as mais promissoras. Agora é a hora de fazer parceria nas regras ara IA. 

Por fim, ao me pegar pensando sobre essas questões nos últimos meses, várias vezes minha mente voltou a alguns pensamentos conectados. 

Em primeiro lugar, essas questões são importantes demais para serem deixadas apenas aos tecnólogos. E, igualmente, não há como antecipar, muito menos abordar, esses avanços sem envolver as empresas de tecnologia no processo. Mais do que nunca, este trabalho exigirá uma grande tenda. 

Em segundo lugar, o futuro da inteligência artificial requer uma abordagem multidisciplinar. O setor de tecnologia foi construído por engenheiros. No entanto, se a IA realmente servir à humanidade, o futuro exige que reunamos cientistas de dados e computadores com pessoas de todas as esferas da vida e de todos os modos de pensar. Mais do que nunca, a tecnologia precisa de pessoas com formação em humanidades, ciências sociais e com uma dose acima da média de bom senso. 

Finalmente, e talvez o mais importante, a humildade nos servirá melhor do que a autoconfiança. Não faltarão pessoas com opiniões e previsões. Muitos valerão a pena considerar. Mas muitas vezes me pego pensando principalmente em minha citação favorita de Walt Whitman – ou Ted Lasso, dependendo de sua preferência. 

“Seja curioso, não preconceituoso.” 

Estamos entrando em uma nova era. Precisamos aprender juntos. 

Tags: , , , ,

Posts Relacionados