Nosso Relatório de Transparência de IA Responsável de 2025: Como construímos, apoiamos nossos clientes e crescemos

Por Teresa Hutson, vice-presidente executiva do Trusted Technology Group, e Natasha Crampton, diretora de IA Responsável

Imagem abstrata em tons de azul, roxo e ciano, com formas curvas e translúcidas que se entrelaçam suavemente sobre um fundo degradê nas mesmas cores. As linhas e superfícies têm aparência vítrea e fluida, criando uma sensação de movimento e leveza. A composição está emoldurada por uma borda prateada com textura sutil.

Em maio de 2024, lançamos nosso primeiro Relatório de Transparência de IA Responsável. Somos gratos pelo feedback que recebemos de nossos stakeholders em todo o mundo. Suas percepções trouxeram informações para este segundo Relatório Anual de Transparência de IA Responsável, que ressalta nosso compromisso contínuo com a construção de tecnologias de IA nas quais as pessoas confiam. Nosso relatório destaca novos desenvolvimentos relacionados à forma como construímos e implantamos sistemas de IA com responsabilidade, como apoiamos nossos clientes e o ecossistema mais amplo e como aprendemos e evoluímos.

No ano passado, houve uma onda de adoção de IA por organizações de todos os tamanhos, levando a um foco renovado na governança eficaz da IA na prática. Nossos clientes e parceiros estão ansiosos para saber como dimensionamos nosso programa na Microsoft e desenvolvemos ferramentas e práticas que operacionalizam normas de alto nível.

Como nós, eles descobriram que construir uma inteligência artificial confiável é bom para os negócios e que a boa governança abre oportunidades de IA. De acordo com a Pesquisa de IA Responsável da Microsoft, feita pela IDC , que reuniu insights sobre atitudes organizacionais e o estado da IA responsável, mais de 30% dos entrevistados observam a falta de soluções de governança e gerenciamento de riscos como a principal barreira para a adoção e dimensionamento da IA. Por outro lado, mais de 75% dos entrevistados que usam ferramentas de IA responsáveis para gerenciamento de riscos dizem que esses instrumentos ajudaram com privacidade de dados, experiência do cliente, decisões de negócios confiantes, reputação da marca e confiança.

Também vimos novos esforços regulatórios e leis surgirem no ano passado. Como investimos na operacionalização de práticas responsáveis de IA na Microsoft há quase uma década, estamos bem preparados para cumprir essas regulamentações e capacitar nossos clientes a fazer o mesmo. No entanto, o nosso trabalho aqui não terminou. Como detalhamos no relatório, práticas eficientes e eficazes de regulamentação e implementação que apoiam a adoção da tecnologia de IA mais amplamente ainda estão sendo definidas. Continuamos focados em contribuir com nossos insights práticos para os esforços de definição de padrões e normas em todo o mundo.

Em todos esses aspectos da governança, é importante permanecer ágil em nossa abordagem, aplicando aprendizados de nossas implantações no mundo real, atualizando nossas práticas para refletir avanços do estado da arte e assegurando que sejamos responsivos ao feedback de nossos stakeholders. Os aprendizados de nossa abordagem baseada em princípios e iterativos estão refletidos nas páginas deste relatório. À medida que nossas práticas de governança continuam a evoluir, compartilharemos proativamente nossos novos insights com nossos stakeholders, tanto em futuros relatórios anuais de transparência quanto em outros ambientes públicos.

Principais conclusões do nosso Relatório de Transparência de 2025

Em 2024, fizemos investimentos importantes em nossas ferramentas, políticas e práticas de IA responsável para avançar na velocidade da inovação em IA.

  1. Aprimoramos nossas ferramentas de IA responsável para fornecer medição de risco expandida e cobertura de mitigação para modalidades além do texto, como imagens, áudio e vídeo, e suporte adicional para sistemas agentes, sistemas semiautônomos que prevemos que representarão uma área significativa de investimento e inovação em IA em 2025 e além.
  2. Adotamos uma abordagem proativa e em camadas para a conformidade com os novos requisitos regulatórios, incluindo a Lei de IA da União Europeia, e fornecemos aos nossos clientes recursos e materiais que os capacitam a inovar de acordo com os regulamentos relevantes. Nossos primeiros investimentos na construção de um programa de IA responsável abrangente e líder do setor nos posicionaram bem para mudar nossos esforços de prontidão regulatória de IA em alta velocidade em 2024.
  3. Continuamos a aplicar uma abordagem consistente de gerenciamento de risco em todas as versões por meio de nossa revisão pré-implantação e esforços do Red Team. Isso incluiu a supervisão e a revisão de usos de alto impacto e alto risco de versões de IA e IA generativa, incluindo todos os modelos principais adicionados ao Serviço OpenAI do Azure e todas as versões do modelo Phi. Para apoiar ainda mais a documentação de IA responsável como parte dessas revisões, lançamos uma ferramenta de fluxo de trabalho interna projetada para centralizar os vários requisitos de IA responsável descritos no Padrão de IA Responsável.
  4. Continuamos a fornecer aconselhamento prático para usos de IA de alto impacto e alto risco por meio de nossa equipe de Usos Sensíveis e Tecnologias Emergentes. As aplicações de IA generativa, especialmente em áreas como saúde e ciências, foram áreas de crescimento notáveis em 2024. Ao coletar insights sobre casos e envolver pesquisadores, a equipe forneceu orientação antecipada para novos riscos e recursos emergentes de IA, permitindo a inovação e incubando novas políticas e diretrizes internas.
  5. Continuamos a nos apoiar em insights de pesquisas para informar nossa compreensão de questões sociotécnicas relacionadas aos últimos avanços em IA. Estabelecemos o AI Frontiers Lab para investir nas principais tecnologias que ultrapassam a fronteira do que os sistemas de IA podem fazer em termos de capacidade, eficiência e segurança.
  6. Trabalhamos com as partes interessadas em todo o mundo para progredir na construção de abordagens de governança coerentes para ajudar a acelerar a adoção e permitir que organizações de todos os tipos inovem e usem a IA amplamente. Isso incluiu a publicação de um livro explorando a governança em vários domínios e ajudando a promover padrões coesos para testar sistemas de IA.

Olhando para o segundo semestre de 2025 e além

À medida que a inovação e a adoção da IA continuam avançando, nosso principal objetivo permanece o mesmo: ganhar a confiança que vemos como fundamental para promover a adoção ampla e benéfica da IA em todo o mundo. À medida que continuamos essa jornada no próximo ano, nos concentraremos em três áreas para avançar em nosso compromisso inabalável com a governança da IA, garantindo que nossos esforços respondam a um cenário em constante evolução:

  1. Desenvolver ferramentas e práticas de gerenciamento de risco mais flexíveis e ágeis, promovendo o desenvolvimento de habilidades para antecipar e se adaptar aos avanços da IA. Para garantir que pessoas e organizações em todo o mundo possam aproveitar o potencial transformador da IA, nossa capacidade de antecipar e gerenciar os riscos da IA deve acompanhar a inovação dessa tecnologia. Isso exige que criemos ferramentas e práticas que possam se adaptar rapidamente aos avanços nos recursos de IA e à crescente diversidade de cenários de implantação, cada um com perfis de risco exclusivos. Para fazer isso, faremos maiores investimentos em nossos sistemas de gerenciamento de riscos para fornecer ferramentas e práticas para os riscos mais comuns em cenários de implantação e permitir o compartilhamento de conjuntos de testes, mitigações e outras práticas recomendadas entre as equipes da Microsoft.
  2. Apoiar a governança eficaz em toda a cadeia de suprimentos de IA. Construir, ganhar e manter a confiança na IA é um esforço colaborativo que exige que desenvolvedores de modelos, criadores de aplicativos e usuários do sistema contribuam para design, desenvolvimento e operações confiáveis. Os regulamentos da IA, incluindo a Lei de IA da UE, refletem a necessidade de fluxo de informações entre os atores da cadeia de suprimentos. Embora adotemos esse conceito de responsabilidade compartilhada na Microsoft, também reconhecemos que definir como as responsabilidades se encaixam é complexo, especialmente em um ecossistema de IA em rápida mudança. Para ajudar a promover a compreensão compartilhada de como isso pode funcionar na prática, estamos aprofundando nosso trabalho interna e externamente para esclarecer funções e expectativas.
  3. Promover um ecossistema vibrante por meio de normas compartilhadas e ferramentas eficazes, particularmente para mensuração e avaliação de risco de IA. A ciência da medição e avaliação de risco de IA é um campo crescente, mas ainda incipiente. Estamos comprometidos em apoiar o amadurecimento desse campo, continuando a fazer investimentos na Microsoft, inclusive em pesquisas que ultrapassam as fronteiras da mensuração e avaliação de risco de IA e as ferramentas para operacionalizá-las em escala. Continuamos comprometidos em compartilhar nossos avanços mais recentes em ferramentas e melhores práticas com o ecossistema mais amplo para apoiar o avanço de normas e padrões compartilhados para medição e avaliação de risco de IA.

Estamos ansiosos para ouvir seus comentários sobre o progresso que fizemos e as oportunidades de colaborar em tudo o que ainda resta a fazer. Juntos, podemos promover a governança de inteligência artificial de forma eficiente e eficaz, promovendo a confiança nos sistemas de IA em um ritmo que corresponda às oportunidades futuras.

Leia o Relatório de Transparência de IA Responsável de 2025.