book_icon

Os conselhos de ética da IA podem ser bem-sucedidos?

A Inteligência Artificial (IA) tem potencial de gerar amplo impacto social. As possibilidades são infinitas, desde encontrar curas para doenças, prever a falta de safras na agricultura e melhorar a produtividade dos negócios. No entanto, a tecnologia com um potencial tão grande nunca fica isenta de riscos, e as vantagens que a IA pode oferecer são possíveis somente se a ética estiver à frente de qualquer programa ou aplicativo.
Dados tendenciosos, vídeos falsos e mau uso em período eleitoral são apenas alguns exemplos que a maioria de nós já ouviu falar sobre a IA ser usada com intenções maliciosas. E isso não alivia nada o ceticismo público, que sem dúvida afeta as empresas a longo prazo. Além dessas formas óbvias de uso indevido da IA, existem outros riscos no gerenciamento diário de qualquer plataforma ou programa de IA incluindo:
· Transparência: ou falta de transparência, em torno do que entra nos algoritmos de IA
· Responsabilidade: quem é responsável se a IA cometer um erro?
· Discriminação: a IA poderia discriminar injustamente por meio de dados tendenciosos?
· Privacidade de dados: para que a IA se desenvolva, o volume de dados necessários segue aumentando exponencialmente. Isso exige maior cautela e conscientização sobre como os dados das pessoas são coletados, armazenados e utilizados. Mas isso limitará os recursos?
Os conselhos de ética da IA podem ser a solução?
Muitos gigantes da tecnologia experimentaram a criação de conselhos de ética em IA, mas ao longo do ano passado notamos algumas falhas – incluindo o fechamento do conselho de ética em IA do Google apenas duas semanas após o seu surgimento. Da mesma forma que a IA só é capaz de produzir resultados tão bons dependendo dos dados que a alimentam, o Google enfrentou uma reação pública em relação à sua escolha de membros do conselho.
Isso levantou o questionamento. Os conselhos de ética em IA são realmente o caminho para o uso responsável da IA? Afinal, se uma gigante global da tecnologia não consegue fazer seu conselho de ética decolar, quais as chances das outras empresas do setor terem sucesso nessa missão? No mínimo, o fechamento do conselho de ética da Google AI trouxe aprendizados. As empresas devem garantir que seus painéis de ética realmente reflitam uma sociedade diversificada e sejam totalmente transparentes e imparciais.
Por outro lado, existem alguns sucessos notáveis, como as organizações que estão introduzindo diretrizes acionáveis e formando conselhos de ética que seguem um conjunto bem definido de princípios para ajudar a estabelecer soluções éticas de IA.
A União Europeia é um exemplo de órgão público que trata da ética da IA com seu Grupo de Peritos de Alto Nível em Inteligência Artificial. E, da mesma forma, nos EUA o MIT lançou seu novo Schwartzman College of Computing, fruto de um investimento de US$ 1 bilhão para criar um centro de pesquisas em IA. Embora essas iniciativas ainda estejam dando seus primeiros passos, as intenções e abordagens desse projeto parecem estar no caminho certo.
Responsabilidade retrospectiva
À medida que novas leis e regulamentações entrarem em vigor, provavelmente passaremos a enxergar algumas organizações com outros olhos devido a ações tomadas no passado que hoje poderiam ser consideradas antiéticas. Assim, as empresas ficarão mais conscientes das ações a tomar agora e de como elas podem ser percebidas no futuro – levando a dois resultados:
I. Empresas que não tomam medidas por medo de errar
II Empresas que correm para agir para que possam dizer “pelo menos tentamos”
É importante estabelecer as bases certas antes de buscar grandes ambições.
Mais do que uma barreira tecnológica. É um problema social. Mesmo se superarmos alguns dos obstáculos já mencionados veremos um estado utópico de inteligência artificial? É improvável.
Assim como as mudanças climáticas, se ignoradas, podemos perceber apenas o impacto da IA antiética em um ponto em que há pouca ou nenhuma capacidade de influenciá-la. Empresas, governos e indivíduos devem ver a ética da IA como um dever e criar um conjunto de princípios e melhores práticas para proteger a sociedade. Não há uma abordagem rígida e rápida para acertar isso, mas a transparência e uma bússola moral são um bom ponto de partida. E a vontade de tentar abordagens diferentes, aceitando que elas nem sempre funcionam.
Nunca houve um momento mais empolgante para trabalhar no campo da IA e dos dados, mas, como em qualquer tecnologia emergente e disruptiva, há muito trabalho a fazer para garantir o uso responsável. Um futuro ético e seguro requer colaboração entre indústrias, especialistas e um foco absoluto em justiça, inclusão, privacidade e direitos humanos. O potencial da IA é vasto, mas o uso responsável depende muito do próprio setor.
Por Patrick Smith, CTO Emea, Pure Storage

conselhos de ética da IA

Patrick Smith

Pure Storage

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.
Revista Digital

Agenda & Eventos

Cadastre seu Evento