book_icon

Intel integra novo grupo de trabalho MLCommons AI Safety para IA segura

A Intel se une a um grupo de especialistas líderes da indústria e da academia em IA para estabelecer benchmarks padrão de segurança de IA

Intel integra novo grupo de trabalho MLCommons AI Safety para IA segura

A Intel anunciou que está se juntando ao novo grupo de trabalho MLCommons AI Safety (AIS) ao lado de especialistas em Inteligência Artificial (IA) da indústria e da academia. Como membro fundador, a Intel contribuirá com sua experiência e conhecimento para ajudar a criar uma plataforma flexível para benchmarks que medem os fatores de segurança e de risco de ferramentas e modelos de IA. À medida que os testes amadurecem, os padrões de referência de segurança da IA ​​desenvolvidos pelo grupo de trabalho se tornarão um elemento vital da abordagem da sociedade na implementação e segurança da IA.

A Intel planeja compartilhar descobertas de segurança de IA e melhores práticas e processos para desenvolvimento responsável, como red-teaming e testes de segurança

“A Intel está comprometida em desenvolver a IA de forma responsável e torná-la acessível a todos. Abordamos as questões de segurança de forma holística e desenvolvemos inovações em hardware e software para permitir que o ecossistema construa uma IA confiável. Devido à onipresença e difusão de grandes modelos linguísticos, é crucial trabalhar em todo o ecossistema para abordar questões de segurança no desenvolvimento e implantação da IA. Para este fim, temos o prazer de nos juntarmos à indústria na definição de novos processos, métodos e benchmarks para melhorar a IA em todos os lugares”, disse Deepak Patil, vice-presidente corporativo da Intel e gerente-geral de Soluções de IA para Data Center.

O treinamento responsável e a implementação de grandes modelos de linguagem (LLMs) e ferramentas são de extrema importância para ajudar a mitigar os riscos sociais representados por essas poderosas tecnologias. A Intel há muito reconhece a importância das implicações éticas e de direitos humanos associadas ao desenvolvimento da tecnologia, especialmente da IA.

Este grupo de trabalho fornecerá um sistema de classificação de segurança para avaliar o risco apresentado pelas novas tecnologias de IA em rápida evolução. A participação da Intel no grupo de trabalho AIS é o mais recente compromisso nos esforços da empresa para avançar de forma responsável nas tecnologias de IA.

O grupo de trabalho de Segurança de IA é organizado pela MLCommons com a participação de um grupo multidisciplinar de especialistas em IA. O grupo desenvolverá uma plataforma e um conjunto de testes de colaboradores para apoiar benchmarks de segurança de IA para diversos casos de uso. A Intel planeja compartilhar descobertas de segurança de IA e melhores práticas e processos para desenvolvimento responsável, como red-teaming e testes de segurança.

O foco inicial do grupo de trabalho será desenvolver benchmarks de segurança para LLMs, com base no trabalho de pesquisadores do Centro de Pesquisa em Modelos Fundamentais da Universidade de Stanford e sua Avaliação Holística de Modelos de Linguagem (HELM). A Intel compartilhará seus processos de revisão rigorosos e multidisciplinares usados ​​internamente para desenvolver modelos e ferramentas de IA com o grupo de trabalho AIS para ajudar a estabelecer um conjunto comum de melhores práticas e benchmarks para avaliar o desenvolvimento seguro e a implantação de uma ferramenta generativa de IA que aproveite LLMs.

Serviço
www.intel.com

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.