book_icon

Relatório Capgemini: IA e o enigma ético

O relatório da Capgemini descobriu que 70% dos clientes esperam que as organizações forneçam interações de IA que sejam transparentes e justas
Relatório Capgemini: IA e o enigma ético

A Inteligência Artificial (IA) tem o poder de transformar positivamente a sociedade e o meio ambiente, e para aproveitar esse poder em todo o seu potencial, as organizações precisam se concentrar em enfrentar os desafios éticos. De acordo com o novo relatório do Capgemini Research Institute, “AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust,” (em tradução livre, “IA e o enigma ético: como as organizações podem construir sistemas de IA eticamente robustos e ganhar confiança”), que descobriu que a parcela de clientes que acreditam que as organizações estão sendo totalmente transparentes sobre como é feito o uso de seus dados pessoais caiu de 76% em 2019 para 62% hoje. O relatório também descobriu que apenas 53% das organizações têm um líder responsável pela ética dos sistemas de IA, e que a governança e a responsabilidade pela IA e a implementação de ferramentas e estruturas pragmáticas para os sistemas de IA a serem desenvolvidos e usados ​​têm um alto custo para as organizações.
O relatório observa que, embora as organizações estejam mais conscientes do ponto de vista ético, o progresso na implementação de IA ética tem sido inconsistente. Por exemplo, quase a mesma proporção de executivos em 2019 disse que tomou medidas para construir “equidade” (65% em 2020 vs. 66% em 2019) e “auditabilidade” (45% em 2020 vs. 46% em 2019) dimensões de seus sistemas de IA; além disso, a transparência caiu de 73% para 59%, apesar do fato de 58% das empresas afirmarem que estão conscientizando os funcionários sobre os problemas que podem resultar do uso de IA. A pesquisa também revela que 70% dos clientes desejam uma explicação clara dos resultados e esperam que as organizações forneçam interações de IA transparentes e justas.

Como as organizações públicas e privadas continuam a implementar cada vez mais uma variedade de tecnologias de IA, é fundamental para elas manter a confiança do cliente promovendo relacionamentos positivos entre a IA e os consumidores 

Viés discriminatório de sistemas de IA e experiências negativas de clientes de IA têm um alto custo para as organizações
Como as organizações públicas e privadas continuam a implementar cada vez mais uma variedade de tecnologias de IA, é fundamental para elas manter a confiança do cliente promovendo relacionamentos positivos entre a IA e os consumidores. No entanto, os relatórios mostram que os conjuntos de dados coletados para a saúde e o setor público estão sujeitos a preconceitos sociais e culturais.
Isso não se limita apenas ao setor público. A pesquisa da Capgemini descobriu que 65% dos executivos disseram estar cientes da questão do viés discriminatório com os sistemas de IA. Além disso, cerca de 60% das organizações atraíram o escrutínio jurídico e 22% enfrentaram uma reação negativa do cliente nos últimos 2 a 3 anos devido a decisões tomadas por sistemas de IA. Na verdade, 45% dos clientes notaram que compartilharão suas experiências negativas com a família e amigos e podem exortar que eles não se envolvam com uma organização, 39% exporão suas preocupações à organização e exigirão uma explicação e 39% deixarão a IA como canal para uma interação humana de custo mais alto. Mais de um quarto dos consumidores (27%) afirmam que deixariam de lidar com a organização por completo.
Estabeleça a propriedade das questões éticas – os líderes devem ser responsáveis
Apenas 53% das organizações têm um líder que é responsável pela ética dos sistemas de IA em sua organização, como um Diretor de Ética. É crucial estabelecer a liderança no topo para garantir que essas questões recebam a devida prioridade da alta administração e para criar sistemas de IA eticamente robustos.
Além disso, os líderes nas funções de negócios e tecnologia devem ser totalmente responsáveis ​​pelos resultados éticos das aplicações de IA. Nossa pesquisa mostra que apenas metade disse ter uma linha direta confidencial ou ombudsman para permitir que clientes e funcionários levantassem questões éticas com sistemas de IA.
A governança ética tornou-se um pré-requisito
A necessidade de as organizações implementarem uma carta ética também é impulsionada por estruturas regulatórias cada vez maiores. Por exemplo, a Comissão Europeia emitiu orientações sobre os princípios éticos fundamentais que devem ser usados ​​para conceber aplicações de IA [2]. Enquanto isso, as diretrizes emitidas pela Comissão Federal de Comércio dos Estados Unidos (FTC) no início de 2020 exigem IA transparente, afirmando que quando um sistema habilitado para IA toma uma decisão adversa (como recusar crédito para um cliente), a organização deve mostrar ao consumidor afetado os principais pontos de dados usados ​​para chegar à decisão e dar-lhe o direito de alterar qualquer informação incorreta. No entanto, embora 73% das organizações globalmente tenham informado os usuários sobre as maneiras pelas quais as decisões de IA podem afetá-los em 2019, hoje, esse número caiu para 59%.
De acordo com o relatório, isso é um indicativo das circunstâncias atuais trazidas pelo Covid-19, bem como das necessidades sociais e ambientais, da crescente complexidade dos modelos de IA e de uma mudança no comportamento do consumidor, que afetaram as funcionalidades dos modelos de IA existentes. Novos fatores, incluindo preferência por segurança, compra em massa e falta de dados de treinamento para situações semelhantes do passado, significa que as organizações estão redesenhando seus sistemas para se adequarem a um novo padrão; no entanto, isso levou a menos transparência.
O relatório destaca sete ações-chave para as organizações construírem um sistema de IA eticamente robusto, com cada uma sendo sustentada por uma base sólida de liderança, governança e práticas internas.
Descreva claramente a finalidade pretendida dos sistemas de IA e avalie seu impacto potencial geral; implemente IA de maneira proativa para o benefício da sociedade e do meio ambiente; incorpore princípios de diversidade e inclusão de forma proativa ao longo do ciclo de vida dos sistemas de IA; aumente a transparência com a ajuda de ferramentas de tecnologia; humanize a experiência de IA e garantir a supervisão humana dos sistemas de IA; garanta a robustez tecnológica dos sistemas de IA e proteja a privacidade individual das pessoas, capacitando-as e colocando-as no comando das interações de IA.
“Dado seu potencial, o uso ético da IA ​​deve, é claro, garantir aos humanos que eles não tenham danos e a total responsabilidade humana e responsabilidade quando as coisas derem errado. Mas, além disso, há uma oportunidade muito real para uma busca proativa pelo bem-estar ambiental e social”, comenta Anne-Laure Thieullent, Líder da Oferta do Grupo de Inteligência Artificial e Analytics da Capgemini. “AI é uma tecnologia transformacional com o poder de gerar desenvolvimentos de longo alcance em toda a empresa, bem como na sociedade e no meio ambiente. Em vez de temer os impactos da IA ​​nos humanos e na sociedade, é absolutamente possível direcionar a IA no sentido de lutar ativamente contra o preconceito contra as minorias, corrigindo até mesmo o preconceito humano existente em nossas sociedades hoje. Isso significa que as organizações governamentais e não governamentais que possuem os recursos de IA, riqueza de dados e um propósito de trabalhar para o bem-estar da sociedade e do meio ambiente devem assumir maior responsabilidade em lidar com essas questões para beneficiar as sociedades agora e no futuro, tudo ao mesmo tempo respeitando transparência e sua própria responsabilidade no processo” .
Metodologia de Pesquisa
Para os pontos de dados do relatório de 2020, a Capgemini conduziu uma pesquisa global com consumidores e executivos de abril a maio de 2020. A pesquisa com consumidores entrevistou 2,9 mil consumidores em seis países, enquanto a pesquisa com executivos entrevistou 884 executivos (cujas funções incluem: Tecnologia da Informação, desenvolvedores de IA, cientistas de dados, vendas, marketing e atendimento ao cliente) em dez países. Esses resultados foram ainda comparados com pesquisas de 2019 realizadas durante abril de 2019 e junho de 2019, envolvendo 5 mil consumidores e 722 executivos, incluindo desenvolvedores de IA, cientistas de dados, vendas e equipes de marketing. A Capgemini também conduziu entrevistas aprofundadas com vários executivos da indústria, acadêmicos e especialistas no assunto na área de ética em IA, durante agosto-setembro de 2020.
 

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.