Microsoft, Anthropic, Google e OpenAI lançam o Fórum Frontier Model

  • Microsoft, Anthropic, Google e OpenAI lançam o Fórum Frontier Model, um órgão da indústria focado em garantir o desenvolvimento seguro e responsável de modelos de IA de fronteira. 
  • O Fórum visa promover pesquisas sobre a segurança em torno do desenvolvimento dos modelos de IA de fronteira para minimizar riscos potenciais, identificar as melhores práticas de segurança para estes modelos, compartilhar conhecimento com formuladores de políticas públicas, acadêmicos, sociedade civil e outros, além de impulsionar o desenvolvimento responsável da IA e apoiar os esforços para aproveitar a IA no enfrentamento dos maiores desafios da sociedade. 
  • O Fórum Frontier Model estabelecerá um Conselho Consultivo para ajudar a orientar sua estratégia e prioridades. 
  • Ainda, a iniciativa acolhe a participação de outras organizações que desenvolvem modelos de IA de fronteira e que estejam dispostas a colaborar para o avanço seguro dessa tecnologia. 

 

Anthropic, Google, Microsoft e OpenAI anunciam a formação do Fórum Frontier Model, um novo órgão da indústria focado em garantir o desenvolvimento seguro e responsável de modelos de IA de fronteira. A iniciativa alavancará o conhecimento técnico e operacional de suas empresas membros para beneficiar todo o ecossistema de IA por meio de pesquisas, avaliações técnicas e benchmarks, bem como com a criação de uma biblioteca pública de soluções para oferecer suporte às melhores práticas e padrões do setor. 

Os principais objetivos do Fórum são: 

  1. Avançar na pesquisa de segurança em torno da IA, para promover o desenvolvimento responsável de modelos de fronteira, minimizar riscos e permitir avaliações independentes e padronizadas dessa tecnologia. 
  2. Identificar as melhores práticas para o desenvolvimento responsável e implantação de modelos de fronteira, a fim de ajudar o público a entender a natureza, capacidades, limitações e impacto da IA de fronteira. 
  3. Colaborar com formuladores de políticas públicas, acadêmicos, sociedade civil e empresas para compartilhar conhecimento sobre a confiança e riscos de segurança. 
  4. Apoiar os esforços para desenvolver aplicativos que possam ajudar a enfrentar os maiores desafios da sociedade, como mitigação e adaptação às mudanças climáticas, detecção precoce e prevenção do câncer e combate a ameaças cibernéticas. 

Critérios de associação 

O Fórum define modelos de IA de fronteira como grandes modelos de aprendizado de máquina que excedem os recursos já existentes nos modelos mais avançados e podem executar uma ampla variedade de tarefas. 

A adesão ao Frontier Model Forum está aberta a organizações que: 

  • Desenvolvem e implementam modelos de IA de fronteira (conforme definido pelo Fórum). 
  • Demonstram um forte compromisso com a segurança da IA, incluindo abordagens técnicas e institucionais. 
  • Estão dispostos a contribuir para o avanço dos esforços do Fórum Frontier Model, participando de iniciativas conjuntas e apoiando o desenvolvimento e operação do projeto. 

O Fórum está aberto às organizações que atendem a esses critérios e desejam se juntar a esse esforço para garantir o desenvolvimento seguro e responsável de modelos de IA de fronteira. 

O que o Fórum Frontier Model fará 

Governos e indústrias concordam que, embora a IA seja uma grande promessa para beneficiar o mundo, são necessárias medidas adequadas para mitigar os potenciais riscos atrelados a esta tecnologia. Contribuições significativas para esses esforços já foram feitas pelos governos dos EUA e do Reino Unido, bem como pela União Europeia, OCDE, G7 (por meio do processo AI Hiroshima) e outros. 

Para continuar esses esforços, é necessário avançar em padrões e avaliações de segurança para garantir que os modelos de IA de fronteira sejam desenvolvidos e implantados com responsabilidade. O Fórum será um canal para discussões e ações interorganizacionais sobre segurança e responsabilidade da IA. 

Ainda, a iniciativa se concentrará em três áreas principais no próximo ano para atingir seu objetivo: 

Identificar as melhores práticas: promover o compartilhamento de conhecimento e melhores práticas entre indústria, governos, sociedade civil e academia, com foco em padrões e práticas de segurança que ajudem a mitigar uma ampla gama de riscos potenciais. 

Pesquisa avançada de segurança de IA: apoiar o ecossistema de segurança da IA, identificando as questões mais importantes neste tópico. O Fórum coordenará pesquisas para se aprofundar em áreas técnicas como robustez adversária, capacidade de interpretação e monitoramento escalável, assim como em outros aspectos da tecnologia, como o acesso a pesquisas independentes, comportamentos emergentes e detecção de anomalias. Inicialmente, o foco predominante será a criação e compartilhamento de uma biblioteca pública com as principais avaliações e benchmarks para modelos de IA de fronteira. 

Facilitar a troca de informações entre empresas e governos: estabelecer mecanismos confiáveis ​​e seguros para compartilhar informações entre empresas, governos e partes interessadas sobre segurança e riscos em IA.  

Kent Walker, presidente de Assuntos Globais da Google & Alphabet disse: “Estamos entusiasmados em trabalhar em conjunto com outras empresas líderes, para compartilhar conhecimentos técnicos que promovam a inovação responsável em IA. A participação de empresas, governos e sociedade civil será essencial para cumprir a promessa de que a IA beneficiará a todos”. 

Brad Smith, vice-presidente da Microsoft, afirmou: “As empresas que criam tecnologia de IA têm a responsabilidade de garantir que ela seja segura e permaneça sob controle humano. Esta iniciativa é um passo vital para unir o setor de tecnologia no avanço responsável da IA ​​e enfrentar os desafios para que ela beneficie toda a humanidade”. 

Anna Makanju, vice-presidente de Assuntos Globais da OpenAI comentou: “As tecnologias avançadas de IA têm o potencial de beneficiar significativamente a sociedade, mas isto requer supervisão e governança. É vital que as empresas de IA, especialmente aquelas que trabalham nos modelos mais poderosos, se alinhem em um senso comum e promovam práticas seguras pensadas e adaptáveis, ​​para garantir que ferramentas de IA tenham o maior benefício possível. Este é um trabalho urgente. Este Fórum está bem posicionado para agir rapidamente para promover o estado da segurança da IA.” 

Dario Amodei, CEO da Anthropic disse: “A Anthropic acredita que a IA pode mudar fundamentalmente a forma como o mundo funciona. Estamos entusiasmados em colaborar com a indústria, sociedade civil, governo e academia para promover o desenvolvimento seguro e responsável da tecnologia. O Fórum Frontier Model desempenhará um papel vital na coordenação das melhores práticas e no intercâmbio de pesquisas sobre segurança da IA de fronteira”. 

Como vai funcionar o Fórum Frontier Model 

Nos próximos meses, o Fórum estabelecerá um Conselho Consultivo para orientar sua estratégia e prioridades e representar a diversidade de origens e perspectivas das organizações que o compõem. 

As empresas fundadoras do Fórum Frontier Model também estabelecerão acordos institucionais importantes, como um estatuto, governança e financiamento, com o apoio de um grupo de trabalho e um conselho executivo para liderar esses esforços. Planejamos consultar a sociedade civil e os governos nas próximas semanas sobre o projeto do Fórum e sobre formas significativas de colaboração. 

A iniciativa acolherá com satisfação e se envolverá com outras iniciativas governamentais e multilaterais existentes, como o processo G7 de Hiroshima, o trabalho da OCDE sobre riscos, padrões e impacto social da IA ​​e o Conselho de Negócios e Tecnologia entre os Estados Unidos e União Europeia. 

O Fórum também buscará aproveitar o valioso trabalho que está sendo feito pela indústria, sociedade civil e iniciativas de pesquisa existentes em cada um de seus fluxos de trabalho. Iniciativas como a Partnership on AI e MLCommons fazem contribuições importantes em toda a comunidade, e o Fórum Frontier Model explorará maneiras de colaborar e apoiar esses e outros esforços multilaterais valiosos. 

Tags:

Posts Relacionados