A inteligência artificial (IA) está presente no dia a dia de todos ajudando empresas de variados segmentos a vencer os mais complexos desafios. Mundialmente, ela já é utilizada por 35% das organizações e a tendência de crescimento é clara, com apenas uma em cada cinco empresas afirmando, ao menos por enquanto, que não planeja adotá-la. A medida que a tecnologia se expande, porém, a preocupação com a sua confiabilidade cresce de forma proporcional.
De acordo com o levantamento IBM Global AI Adoption Index 2022, realizado em parceria com o instituto de pesquisa Morning Consult em 19 paÃses, incluindo o Brasil, 84% das empresas consideram que a capacidade de explicar como a inteligência artificial chega à s decisões seja crÃtica para os negócios. "Precisamos de modelos de IA confiáveis, justos e éticos", afirma Marcela Vairo, diretora de Dados, Automação e AI Apps da IBM Brasil. Em outras palavras, significa dizer que é preciso desenvolver uma inteligência artificial capaz de tomar decisões imparciais e justas para toda a sociedade, sem punir ou privilegiar determinados grupos.
Para entender essa necessidade na prática, vale a pena lembrar que a inteligência artificial não surge do nada. Ela é apoiada por conjuntos de dados inseridos em seus sistemas. Uma instituição financeira, por exemplo, acumula décadas de informações sobre crédito e inadimplência. Esses dados são acessados pela inteligência artificial, que passa a estabelecer relações entre eles para criar padrões.
Nesse processo, imagine, por exemplo, que o sistema de IA atribua alto risco de crédito a tomadores que moram em certa localidade, que estejam em uma determinada faixa etária e que tenham mais de três filhos. É possÃvel que esse padrão seja determinado por um critério objetivo, como a inadimplência registrada no sistema. Mas também é possÃvel que seja resultado de uma tendência histórica – e humana – de recusar crédito a esse grupo, algo já determinado antes mesmo de existir a inteligência artificial. Como o sistema sozinho não é capaz de fazer distinção entre o que é objetivo e o que é subjetivo, ele pode acabar absorvendo vieses e preconceitos e, no caso em questão, simplesmente negar o crédito sem uma análise mais aprofundada de outros fatores.
Outro exemplo que merece atenção é o de ferramentas de recrutamento que utilizam inteligência artificial para selecionar candidatos. É comum que elas incluam dados como sexo, etnia e idade, que podem influenciar a inteligência artificial e reforçar favorecimentos e discriminações. Imagine aqui uma empresa que tem um longo histórico de contratação de homens brancos com 45 anos para cargos de diretor de logÃstica. Com base nessas informações estatÃsticas, o sistema pode entender que esse seja o perfil mais adequado para a vaga, quando, na realidade, pode apenas refletir um favorecimento histórico. Mais uma vez: a inteligência artificial sozinha não distingue critérios objetivos de preconceitos estruturais. E essa é a grande preocupação do momento. "A IA precisa ser treinada por humanos que possam determinar que dados devem ser considerados nas escolhas feitas pela tecnologia", afirma Marcela Vairo.
​Para a IBM, essa questão é tão relevante que a empresa decidiu adotar um novo posicionamento em relação à inteligência artificial apoiado em três pilares: Ética, Governança e Ecossistema Aberto. Para a empresa, inteligência artificial confiável deve aumentar a inteligência humana por meio de sistemas transparentes e explicáveis. A empresa também entende que as corporações que utilizam sua solução devam ser capazes de direcionar e monitorar sua inteligência artificial para garantir que ela esteja alinhada à s suas polÃticas.
A IBM ainda se compromete a impulsionar o uso responsável da IA por meio de tecnologia de código aberto e melhoria contÃnua, aproveitando uma diversidade de conjuntos de dados e um ecossistema global de parceiros. "A inteligência artificial deve ajudar as pessoas a tomar decisões mais imparciais", acredita Marcela. "Para que isso aconteça, é preciso ter o cuidado de criar sistemas imparciais, melhorando a forma como eles utilizam os dados para criar padrões que possam mitigar – e não reforçar – preconceitos e vieses humanos", ressalta.