A Intel anunciou que está se juntando ao novo grupo de trabalho MLCommons AI Safety (AIS) ao lado de especialistas em Inteligência Artificial (IA) da indústria e da academia. Como membro fundador, a Intel contribuirá com sua experiência e conhecimento para ajudar a criar uma plataforma flexível para benchmarks que medem os fatores de segurança e de risco de ferramentas e modelos de IA. À medida que os testes amadurecem, os padrões de referência de segurança da IA desenvolvidos pelo grupo de trabalho se tornarão um elemento vital da abordagem da sociedade na implementação e segurança da IA.
“A Intel está comprometida em desenvolver a IA de forma responsável e torná-la acessível a todos. Abordamos as questões de segurança de forma holística e desenvolvemos inovações em hardware e software para permitir que o ecossistema construa uma IA confiável. Devido à onipresença e difusão de grandes modelos linguísticos, é crucial trabalhar em todo o ecossistema para abordar questões de segurança no desenvolvimento e implantação da IA. Para este fim, temos o prazer de nos juntarmos à indústria na definição de novos processos, métodos e benchmarks para melhorar a IA em todos os lugares”, disse Deepak Patil, vice-presidente corporativo da Intel e gerente-geral de Soluções de IA para Data Center.
O treinamento responsável e a implementação de grandes modelos de linguagem (LLMs) e ferramentas são de extrema importância para ajudar a mitigar os riscos sociais representados por essas poderosas tecnologias. A Intel há muito reconhece a importância das implicações éticas e de direitos humanos associadas ao desenvolvimento da tecnologia, especialmente da IA.
Este grupo de trabalho fornecerá um sistema de classificação de segurança para avaliar o risco apresentado pelas novas tecnologias de IA em rápida evolução. A participação da Intel no grupo de trabalho AIS é o mais recente compromisso nos esforços da empresa para avançar de forma responsável nas tecnologias de IA.
O grupo de trabalho de Segurança de IA é organizado pela MLCommons com a participação de um grupo multidisciplinar de especialistas em IA. O grupo desenvolverá uma plataforma e um conjunto de testes de colaboradores para apoiar benchmarks de segurança de IA para diversos casos de uso. A Intel planeja compartilhar descobertas de segurança de IA e melhores práticas e processos para desenvolvimento responsável, como red-teaming e testes de segurança.
O foco inicial do grupo de trabalho será desenvolver benchmarks de segurança para LLMs, com base no trabalho de pesquisadores do Centro de Pesquisa em Modelos Fundamentais da Universidade de Stanford e sua Avaliação Holística de Modelos de Linguagem (HELM). A Intel compartilhará seus processos de revisão rigorosos e multidisciplinares usados internamente para desenvolver modelos e ferramentas de IA com o grupo de trabalho AIS para ajudar a estabelecer um conjunto comum de melhores práticas e benchmarks para avaliar o desenvolvimento seguro e a implantação de uma ferramenta generativa de IA que aproveite LLMs.
Serviço
www.intel.com
Leia nesta edição:
CAPA | TECNOLOGIA
Centros de Dados privados ainda geram bons negócios
TENDÊNCIA
Processadores ganham centralidade com IA
TIC APLICADA
Digitalização do canteiro de obras
Esta você só vai ler na versão digital
TECNOLOGIA
A tecnologia RFID está madura, mas há espaço para crescimento
Baixe o nosso aplicativo