Obs.: você está visualizando a versão para impressão desta página.
AcessibilidadeVer em LibrasCursor grandeEspaçar caracteresPausar animações

6 recomendações para a adoção de uma inteligência artificial ética

  1. Inicial
  2. Novidades
  3. Geral
  4. 6 recomendações para a adoção de uma inteligência artificial ética
Veja também
🔀
A inteligência artificial (AI) é potencialmente a única tecnologia mais disruptiva da era digital, à medida que as empresas exploram formas de aproveitar o aprendizado de máquina (ML) e outras ferramentas de inteligência artificial para explorar os insights dos clientes, identificar talentos e proteger redes corporativas.

E, embora os departamentos de TI possam rapidamente se expandir e se beneficiar com a maioria das tecnologias, as evidências sugerem que os CIOs devem ter extremo cuidado ao implementar a AI, inclusive empregando tecnologias com fortes considerações éticas.

O motivo? A AI sofre de um grande problema de polarização. Em um exemplo, a Amazon.com descartou uma ferramenta de recrutamento depois que falhou em classificar mulheres em tarefas de desenvolvimento de software e outras publicações técnicas. Em outro exemplo, os pesquisadores do MIT e da Universidade de Toronto descobriram que o software de reconhecimento facial da empresa confundia as mulheres por homens, especialmente aquelas com pele escura.

Vieses abundam em AI
A Amazon.com não está sozinha, já que os problemas de AI surgiram em outras empresas e em outros domínios de alto risco. Um gerente de programa do Facebook encontrou discriminação algorítmica ao testar o dispositivo de bate-papo por vídeo do Portal da empresa.

A ProPublica mostrou que o software usado nos EUA para prever criminosos futuros era tendencioso contra os afro-americanos. Um estudo de fintechs da UC Berkeley descobriu que tanto as decisões face-a-face quanto os algoritmos usados em empréstimos hipotecários cobravam taxas de juros mais altas para tomadores de empréstimos latino/afro-americanos.

Também é preocupante a discriminação em torno das margens, um viés que é traiçoeiro em sua sutileza. Na "discriminação por procuração”, os códigos postais podem servir como procurações por raça; escolha de palavras pode ser uma procuração por gênero; e se juntar a um grupo do Facebook sobre uma mutação genética pode colocar uma pessoa em uma categoria de alto risco para o seguro de saúde, mesmo que esse sinal não tenha sido explicitamente codificado no algoritmo.

A AI, é claro, sofre de uma versão digitalizada de vieses que afligem o mundo físico. Afinal, os algoritmos são uma "criação de design humano” que herda nossos preconceitos, diz Kate Crawford, co-fundadora do AI Now Institute da New York University. E os vieses abrangem décadas, de acordo com o IEEE Spectrum.

Consequentemente, os líderes de TI estão cada vez mais preocupados em produzir AI "explicável”. Eles anseiam algoritmos cujos resultados podem ser claramente articulados, idealmente satisfazendo reguladores e executivos de negócios. Porém, dados os vieses inerentes, talvez o que eles realmente precisem seja de "AI ética” ou algoritmos que operam com toda a justiça da inclusão.

Usando a ética para eliminar o viés da AI: 6 dicas
Uma abordagem cuidadosa é fundamental, pois os CIOs estimulam a adoção da AI. O número de empresas que adotam a inteligência digital subiu para 37%, de apenas 10% há quatro anos, de acordo com a pesquisa de 3.000 CIOs do Gartner em 2019. Para o curto prazo, as empresas devem tentar instituir a ética em torno do uso da AI. Especialistas da Deloitte, Genpact e Fjord discutem como as empresas podem avançar implantando a inteligência artificial de maneira justa.

Recrute o conselho e envolva as partes interessadas

Como questões éticas relacionadas à AI podem trazer riscos de amplo e longo prazo para a reputação, finanças e estratégia de uma empresa, os CIOs devem se engajar com a diretoria para mitigar os riscos relacionados à AI, diz David Schatsky, diretor da equipe de inovação da Deloitte. Inspirar a ética na AI começa com a determinação do que interessa às partes interessadas, incluindo clientes, funcionários, reguladores e o público em geral. "As organizações precisam se envolver e serem abertas e transparentes sobre quem são as partes interessadas”, diz Schatsky.

Crie um subcomitê de "ética digital”
As diretorias já têm comitês de auditoria, risco e tecnologia, mas talvez seja hora de adicionar um comitê dedicado à AI, diz Sanjay Srivastava, diretor digital da Genpact, que projeta e implementa tecnologias para empresas. Esse comitê de "ética digital” deve ser composto por líderes multifuncionais que podem se envolver com as partes interessadas para ajudar a projetar e administrar as soluções de AI. Esse comitê também deve ficar a par dos regulamentos que regem a inteligência artificial. Das empresas pesquisadas pela Genpact, 95% disseram que queriam combater o viés da inteligência artificial, mas apenas 34% tinham a governança e os controles para isso.

"Nós aconselhamos os clientes a começar mais cedo ou mais tarde”, diz Srivastava. "A consciência está lá, as pessoas entendem, mas não implementaram a governança e o controle”.

Aproveite o design thinking
Independentemente das empresas construírem AI internamente ou comprarem uma ferramenta comercial, cabe a elas criar soluções usando o design thinking, que pode ajudar a explicar potenciais vieses em seus algoritmos, afirma Shelley Evenson, diretora administrativa da consultoria de projetos Fjord da Accenture.

Enquanto aplicativos internos que usam sinais de previsão do tempo e mídia social para prever vendas ou demanda de produtos não tem o potencial para prejudicar aqueles que anunciam um impacto direto em funcionários e clientes, trazer empatia ao processo de projetar tecnologia é uma boa abordagem.

Use a tecnologia para eliminar a polarização
Os desenvolvedores corporativos de AI também devem ser treinados para testar e corrigir sistemas que codificam preconceitos involuntariamente, que tratam usuários ou outras partes afetadas injustamente. As empresas também podem alavancar ferramentas que detectam como as variáveis de dados podem ser correlacionadas com variáveis sensíveis – como idade, sexo ou raça – e métodos para auditar e explicar como os algoritmos de aprendizado de máquina geram seus resultados. Por exemplo, Srivistava diz que as empresas podem inserir "migalhas de pão” digitais em algoritmos para rastrear processos de tomada de decisão.

Seja transparente sobre o uso de AI
As empresas podem ajudar a criar confiança com as partes interessadas, sendo transparentes quanto ao uso da AI. Por exemplo, em vez de se disfarçar de humanos (como muitos chatbots ainda fazem hoje), os agentes inteligentes devem se identificar como tal, diz Schatsky. As empresas também devem divulgar o uso de sistemas de decisão automatizados que afetam os clientes. Sempre que possível, as empresas devem explicar claramente quais dados eles coletam, o que fazem com eles e como esse uso afeta os clientes.

Alivie a ansiedade de substituição dos funcionários

O grau em que a AI eliminará ou transformará os empregos não está claro, mas as empresas devem começar a instruir os funcionários sobre como seus empregos podem mudar e recomendar maneiras de recuperar o capital para permanecerem relevantes. Isso inclui a reciclagem de trabalhadores cujas tarefas devem ser automatizadas – ou dar-lhes tempo para buscar novos empregos. A Insurer State Auto, por exemplo, está treinando a equipe para lidar com reclamações mais complexas, já que a automação de processos robóticos (RPA) processa cada vez mais as tarefas de nível inferior.

Linha de fundo
Nada disso é um trabalho fácil, principalmente porque não há muito consenso sobre o que é considerado ético em uma determinada situação e com certas partes interessadas, diz Schatsky. Independentemente da abordagem, seria prudente que as empresas tomassem medidas, em vez de "esperar o regulamento relacionado à AI para recuperar o atraso”, diz Schatsky.

Os governos estão movendo a agulha nessa direção. A Comissão Européia publicou em abril um conjunto de diretrizes sobre como as organizações deveriam desenvolver aplicações éticas de inteligência artificial (AI). Dois dias depois, o governo dos EUA propôs a Lei de Responsabilidade Algoritmica de 2019 para tratar de sistemas de AI de alto risco, como a tecnologia que detecta rostos ou toma decisões importantes com base em dados pessoais sensíveis.

Seja qual for o futuro em relação à regulamentação, os CIOs têm algum tempo para discutir as preocupações. Atualmente, a adoção de AI corporativa é dificultada pela falta de dados e problemas de qualidade de dados; uma escassez de modeladores de aprendizado de máquina, cientistas de dados e outros especialistas em AI; resultados incertos; e, é claro, questões éticas e preconceitos, de acordo com uma pesquisa da O’Reilly.

Os setores de serviços financeiros, saúde e educação são responsáveis por 58% das empresas que adotam a AI, em comparação com apenas 4% cada para telecomunicações, mídia e entretenimento, governo, manufatura e varejo, concluiu O'Reilly.

Fonte:https://cio.com.br/6-recomendacoes-para-a-adocao-de-uma-inteligencia-artificial-etica/
ImprimirReportar erroTags:empresas, podem, diz, devem, partes, dados e algoritmos1366 palavras14 min. para ler

Compartilhar artigo: