Para IBM, inteligência artificial deve ser ética, transparente e explicável

Empresa assume compromissos visando impulsionar o uso responsável da tecnologia por organizações em todo o mundo

Para IBM, inteligência artificial deve ser ética, transparente e explicável

Para IBM, inteligência artificial deve ser ética, transparente e explicável Pixabay

A inteligência artificial (IA) está presente no dia a dia de todos ajudando empresas de variados segmentos a vencer os mais complexos desafios. Mundialmente, ela já é utilizada por 35% das organizações e a tendência de crescimento é clara, com apenas uma em cada cinco empresas afirmando, ao menos por enquanto, que não planeja adotá-la. A medida que a tecnologia se expande, porém, a preocupação com a sua confiabilidade cresce de forma proporcional.

De acordo com o levantamento IBM Global AI Adoption Index 2022, realizado em parceria com o instituto de pesquisa Morning Consult em 19 países, incluindo o Brasil, 84% das empresas consideram que a capacidade de explicar como a inteligência artificial chega às decisões seja crítica para os negócios. "Precisamos de modelos de IA confiáveis, justos e éticos", afirma Marcela Vairo, diretora de Dados, Automação e AI Apps da IBM Brasil. Em outras palavras, significa dizer que é preciso desenvolver uma inteligência artificial capaz de tomar decisões imparciais e justas para toda a sociedade, sem punir ou privilegiar determinados grupos.

Para entender essa necessidade na prática, vale a pena lembrar que a inteligência artificial não surge do nada. Ela é apoiada por conjuntos de dados inseridos em seus sistemas. Uma instituição financeira, por exemplo, acumula décadas de informações sobre crédito e inadimplência. Esses dados são acessados pela inteligência artificial, que passa a estabelecer relações entre eles para criar padrões.

Nesse processo, imagine, por exemplo, que o sistema de IA atribua alto risco de crédito a tomadores que moram em certa localidade, que estejam em uma determinada faixa etária e que tenham mais de três filhos. É possível que esse padrão seja determinado por um critério objetivo, como a inadimplência registrada no sistema. Mas também é possível que seja resultado de uma tendência histórica – e humana – de recusar crédito a esse grupo, algo já determinado antes mesmo de existir a inteligência artificial. Como o sistema sozinho não é capaz de fazer distinção entre o que é objetivo e o que é subjetivo, ele pode acabar absorvendo vieses e preconceitos e, no caso em questão, simplesmente negar o crédito sem uma análise mais aprofundada de outros fatores.

Outro exemplo que merece atenção é o de ferramentas de recrutamento que utilizam inteligência artificial para selecionar candidatos. É comum que elas incluam dados como sexo, etnia e idade, que podem influenciar a inteligência artificial e reforçar favorecimentos e discriminações. Imagine aqui uma empresa que tem um longo histórico de contratação de homens brancos com 45 anos para cargos de diretor de logística. Com base nessas informações estatísticas, o sistema pode entender que esse seja o perfil mais adequado para a vaga, quando, na realidade, pode apenas refletir um favorecimento histórico. Mais uma vez: a inteligência artificial sozinha não distingue critérios objetivos de preconceitos estruturais. E essa é a grande preocupação do momento. "A IA precisa ser treinada por humanos que possam determinar que dados devem ser considerados nas escolhas feitas pela tecnologia", afirma Marcela Vairo.

Marcela Vairo, diretora de Dados, Automação e AI Apps da IBM Brasil
Marcela Vairo, diretora de Dados, Automação e AI Apps da IBM Brasil - Divulgação

​Para a IBM, essa questão é tão relevante que a empresa decidiu adotar um novo posicionamento em relação à inteligência artificial apoiado em três pilares: Ética, Governança e Ecossistema Aberto. Para a empresa, inteligência artificial confiável deve aumentar a inteligência humana por meio de sistemas transparentes e explicáveis. A empresa também entende que as corporações que utilizam sua solução devam ser capazes de direcionar e monitorar sua inteligência artificial para garantir que ela esteja alinhada às suas políticas.

A IBM ainda se compromete a impulsionar o uso responsável da IA por meio de tecnologia de código aberto e melhoria contínua, aproveitando uma diversidade de conjuntos de dados e um ecossistema global de parceiros. "A inteligência artificial deve ajudar as pessoas a tomar decisões mais imparciais", acredita Marcela. "Para que isso aconteça, é preciso ter o cuidado de criar sistemas imparciais, melhorando a forma como eles utilizam os dados para criar padrões que possam mitigar – e não reforçar – preconceitos e vieses humanos", ressalta.