book_icon

Cloudflare Firewall for AI protege aplicativos de IA gratuitamente

Novos recursos protegerão as organizações, por padrão, de tentativas de ataque, abuso e adulteração, à medida que elas dependem cada vez mais de modelos de IA

Cloudflare Firewall for AI protege aplicativos de IA gratuitamente

A Cloudflare, empresa global de conectividade em Nuvem, anunciou o desenvolvimento do Firewall for AI, uma nova camada de proteção que identificará abusos e ataques antes que eles atinjam e adulterem grandes modelos de linguagens (LLMs), um tipo de aplicativo de IA que interpreta a linguagem humana e outros tipos de dados complexos. Apoiado pelo poder da rede global da Cloudflare, uma das maiores do mundo, o Firewall for AI posicionará a Cloudflare como um dos únicos provedores de segurança preparados para combater a próxima onda de ataques na revolução da IA – aqueles que visam a funcionalidade, dados críticos e segredos comerciais mantidos dentro dos LLMs.

Com o Firewall for AI da Cloudflare, as equipes de segurança poderão proteger seus aplicativos LLM das possíveis vulnerabilidades que podem ser armadas contra modelos de IA

Um estudo recente revelou que apenas um em cada quatro executivos de nível C-suite tem a confiança de que suas organizações estão bem preparadas para lidar com os riscos de IA. Quando se trata de proteger LLMs, pode ser extremamente desafiador criar sistemas de segurança adequados desde o início, pois é quase impossível limitar as interações do usuário e esses modelos não são predeterminados pelo design – por exemplo, eles podem produzir uma variedade de saídas, mesmo quando recebem a mesma entrada. Como resultado, os LLMs estão se tornando um caminho indefeso para os agentes de ameaças – deixando as organizações vulneráveis a adulterações, ataques e abusos de modelos.

“Quando novos tipos de aplicativos surgem, novos tipos de ameaças surgem rapidamente. Isso não é diferente para aplicativos alimentados por IA”, disse Matthew Prince, cofundador e CEO da Cloudflare. “Com o Firewall para IA da Cloudflare, estamos ajudando a criar segurança no cenário de IA desde o início. Forneceremos um dos primeiros escudos para modelos de IA que permitirão que as empresas aproveitem a oportunidade que a tecnologia desbloqueia, garantindo que estejam protegidas”, completou.

Com o Firewall for AI da Cloudflare, as equipes de segurança poderão proteger seus aplicativos LLM das possíveis vulnerabilidades que podem ser armadas contra modelos de IA. A Cloudflare ajudará os clientes a:

Detecte rapidamente novas ameaças: Oofirewall para IA pode ser implementado na frente de qualquer LLM em execução na IA de trabalhadores da Cloudflare. Ao digitalizar e avaliar os prompts enviados por um usuário, ele identificará melhor as tentativas de explorar um modelo e extrair dados.

Bloqueie ameaças automaticamente – sem necessidade de intervenção humana: construído sobre a rede global da Cloudflare, o Firewall for AI será implementado perto do usuário final, fornecendo capacidade sem precedentes de proteger os modelos contra abusos quase imediatamente.

Implemente a segurança por padrão, gratuitamente: qualquer cliente que execute um LLM na IA de trabalhadores da Cloudflare pode ser protegido pelo Firewall para IA gratuitamente, ajudando a evitar preocupações crescentes como injeção imediata e vazamento de dados.
De acordo com o Gartner, “você não pode proteger um aplicativo GenAI isoladamente. Sempre comece com uma base sólida de segurança em nuvem, segurança de dados e segurança de aplicativos, antes de planejar e implantar controles de segurança específicos da GenAI.” O Cloudflare Firewall for AI adicionará camadas adicionais à sua plataforma de segurança abrangente existente, conectando as ameaças representadas pela tecnologia emergente.

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.