book_icon

Instituições de saúde podem se proteger e evitar ataques com IA e cibersegurança

Capacitação de usuários e monitoramento constante da segurança das ferramentas de IA estão entre as medidas necessárias

Instituições de saúde podem se proteger e evitar ataques com IA e cibersegurança

O uso da Inteligência Artificial (IA) na saúde é um caminho sem volta no Brasil e no mundo. É tanto que a possibilidade de se ter um hospital apenas com médicos robóticos será uma realidade até o fim deste ano na China, como no projeto desenvolvido pela Universidade de Tsinghau. Apesar desse grande avanço tecnológico e dos inúmeros benefícios proporcionados pela IA, é necessário chamar atenção para os cuidados que os setores de TI devem ter para proteger a instituição e os pacientes de possíveis ataques de cibercriminosos.

Entre os benefícios dessa integração com a IA estão a possibilidade da realização de cirurgias menos invasivas; antecipação de detecção de surtos de doenças; monitoramento remoto de pacientes; mais agilidade para o agendamento de consultas; além de promover apoio aos médicos ao contribuir para a otimização de tarefas permitindo com que os mesmos dediquem-se, ainda mais, ao cuidado assistencial.

Caso um cibercriminoso – utilizando-se das linguagens Python, JavaScript e C++, consiga invadir as funcionalidades da IA Generativa, por exemplo, torna-se possível modificar prontuários e indicações clínicas de pacientes, vindo a prejudicar ou dificultar o diagnóstico final

Ao ser alimentada constantemente com Dados sensíveis de usuários, essas ferramentas precisam estar, também, no centro das atenções da equipe tecnológica da instituição para que seja criado um plano de manutenção e segurança das IAs corriqueiramente utilizadas naquele ambiente.

“Caso um cibercriminoso – utilizando-se das linguagens Python, JavaScript e C++, consiga invadir as funcionalidades da IA Generativa, por exemplo, torna-se possível modificar prontuários e indicações clínicas de pacientes, vindo a prejudicar ou dificultar o diagnóstico final”, alerta Filipe Luiz, líder técnico da plataforma de segurança da Flowti, empresa especialista em infraestrutura para ambientes de missão crítica.

Esse prejuízo, porém, pode não ficar restrito aos dados do paciente. A imagem do profissional de saúde também corre o risco de ser prejudicada caso o invasor utilize-se da técnica Deepfake – IA utilizada para alterar vídeos, imagens e falas de pessoas através de montagens constrangedoras e que não condizem com a conduta da vítima.

Para evitar problemas como esses e obter bons resultados com a implementação das Inteligências Artificiais no setor de saúde, é necessário, de acordo com o especialista em segurança cibernética, garantir que o uso delas estão sendo feitas de forma ética e com respeito aos direitos humanos; contar com um time de TI para acompanhar os algoritmos, fazer as correções em caso de necessidade e a integração da IA com os sistemas existentes; capacitar os usuários para a utilização segura dessas ferramentas, entre outros.

Dessa forma, conclui-se que o investimento em tecnologia e em cibersegurança são essenciais e devem caminhar junto à integração da IA em instituições de saúde, afinal essas tecnologias chegaram, também, para revolucionar o setor trazendo avanços significativos em diagnóstico, tratamento e gestão de pacientes.

Serviço
www.flowti.com.br

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.