book_icon

Darktrace ajuda empresas a protegerem seus dados da IA generativa

Darktrace Detect e Darktrace Respond tornam mais fácil para os clientes colocar grades de proteção para monitorar e responder a atividades e conexões com ferramentas de IA generativa

Darktrace ajuda empresas a protegerem seus dados da IA generativa

Em resposta ao crescente uso de ferramentas de IA generativa, a Darktrace anunciou nesta segunda-feira (12/6) o lançamento de novos modelos de risco e conformidade para ajudar seus 8,4 mil clientes em todo o mundo a lidar com o risco crescente de perda de propriedade intelectual e vazamento de informações. Esses novos modelos de risco e conformidade para o Darktrace Detect e Darktrace Respond tornam mais fácil para os clientes colocar grades de proteção para monitorar e, quando necessário, responder a atividades e conexões com ferramentas de IA generativa e modelo de linguagem grande (LLM).

Isso ocorre porque a IA da Darktrace observou que 74% das implementações ativas de clientes têm funcionários usando ferramentas de IA generativas no local de trabalho. Em uma instância, em maio de 2023, a Darktrace detectou e impediu o upload de mais de 1 GB de dados para uma ferramenta de IA generativa em um de seus clientes.

Estamos entusiasmados em continuar colocando as inovações mais recentes nas mãos de nossos clientes em todo o mundo, para que possam se proteger contra as disrupções cibernéticas que continuam a criar o caos em todo o mundo

Novas ferramentas de IA generativas prometem aumentos de produtividade e novas formas de aumentar a criatividade humana. Os CISOs devem equilibrar o desejo de adotar essas inovações para aumentar a produtividade enquanto gerenciam os riscos. Agências governamentais, incluindo o Centro Nacional de Segurança Cibernética do Reino Unido, já emitiram orientações sobre a necessidade de gerenciar riscos ao usar ferramentas de IA geneativa e outros LLMs no local de trabalho. Além disso, espera-se que os reguladores em várias jurisdições (incluindo Reino Unido, UE e EUA) e em vários setores forneçam orientações às empresas sobre como aproveitar ao máximo a IA sem exacerbar seus perigos potenciais.

“Desde que ferramentas de IA generativas como o ChatGPT se tornaram populares, nossa empresa está cada vez mais ciente de como as empresas estão sendo impactadas. Em primeiro lugar, estamos focados no vetor de ataque e em como estamos bem preparados para responder a ameaças potenciais. Igualmente importante é privacidade de dados e estamos ouvindo histórias nas notícias sobre proteção e perda de dados em potencial”, disse Allan Jacobson, vice-presidente e chefe de Tecnologia da Informação do Orion Office REIT. “As empresas precisam de uma combinação de tecnologia e proteções claras para aproveitar os benefícios enquanto gerenciam os riscos potenciais”, completou.

“Na Darktrace, há muito acreditamos que a IA é uma das oportunidades tecnológicas mais empolgantes de nosso tempo. Com o anúncio de hoje, estamos oferecendo aos nossos clientes a capacidade de entender e controlar rapidamente o uso dessas ferramentas de IA em suas organizações. Mas não são apenas os mocinhos que assistem a essas inovações com interesse – a IA também é uma ferramenta poderosa para criar ataques cibernéticos ainda mais sutis e eficazes. A sociedade deve ser capaz de tirar proveito dessas novas ferramentas incríveis para o bem, mas também estar equipada para fique um passo à frente dos invasores na era emergente de ferramentas defensivas de IA versus ataques ofensivos de IA”, disse Poppy Gustafsson, CEO da Darktrace.

Para complementar seu núcleo de IA de autoaprendizagem para prevenção de ataques, detecção de ameaças, resposta autônoma e aplicação de políticas, o Darktrace Cyber ​​AI Research Center desenvolve continuamente novos modelos de IA, incluindo seus próprios modelos de linguagem ampla proprietários, para ajudar os clientes a se prepararem e reagirem contra ameaças cada vez mais sofisticadas. Esses modelos são usados ​​em todos os produtos do Cyber ​​AI Loop da Darktrace .

“Avanços recentes em IA generativa e LLMs são uma adição importante ao crescente arsenal de técnicas de IA que transformarão a segurança cibernética”, disse Jack Stockdale , diretor de Tecnologia da Darktrace. “Na última década, o Darktrace Cyber ​​AI Research Center defendeu o desenvolvimento responsável e a implementação de uma variedade de diferentes técnicas de IA, incluindo nossa IA de autoaprendizagem exclusiva e modelos de linguagem grandes proprietários. Estamos entusiasmados em continuar colocando as inovações mais recentes nas mãos de nossos clientes em todo o mundo, para que possam se proteger contra as disrupções cibernéticas que continuam a criar o caos em todo o mundo”, finalizou.

Serviço
www.darktrace.com

 

As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.