Próximo avanço da IA será ético, afirma especialista em IA

Scott Zoldi alerta sobre desafios na evolução da inteligência artificial em decisões financeiras e detecção de fraudes.

3 min de leitura
Scott Zoldi, Chief Analytics Officer da Fico. Fotos: Divulgação

Scott Zoldi, Chief Analytics Officer da Fico. Fotos: Divulgação

Inteligência Artificial e a Necessidade de Responsabilidade

A inteligência artificial (IA) já desempenha um papel crucial nas decisões que impactam a vida de milhões, desde a aprovação de créditos até a detecção de fraudes. No entanto, Scott Zoldi, Chief Analytics Officer da Fico, alerta para um problema persistente: muitas empresas utilizam modelos de decisão sem compreender seu funcionamento, o que ele classifica como “roleta algorítmica”.

Com mais de cem patentes em IA, Zoldi enfatiza que o avanço da tecnologia deve focar em aspectos éticos, além dos técnicos. Ele argumenta que a sobrevivência das empresas dependerá da capacidade de explicar e auditar o comportamento de seus algoritmos. “Se um modelo impacta sua vida e não consigo explicar o porquê, o problema é a falta de consciência sobre o impacto”, afirma.

Para Zoldi, a IA responsável deve se basear em quatro pilares: robustez, explicabilidade, ética e auditabilidade. Esses princípios, embora filosóficos, são urgentes e práticos.

Pilares da IA Responsável

A robustez se refere a uma IA que controla os dados, apresenta estabilidade e gera resultados consistentes. A explicabilidade é a capacidade de os critérios de decisão serem compreendidos por humanos, permitindo que qualquer pessoa analise e entenda as relações que fundamentam as decisões. A ética envolve evitar a reprodução de vieses invisíveis, enquanto a auditabilidade garante que todas as etapas do desenvolvimento sejam verificáveis.

Para assegurar a auditabilidade, Zoldi desenvolveu um conceito patenteado chamado AI Blockchain, que funciona como um livro-razão digital imutável, registrando cada passo na criação e uso de um modelo. Isso estabelece um elo entre confiança e transparência, permitindo que reguladores auditem, bancos comprovem e clientes confiem.

Esse método, já adotado por instituições financeiras em vários países, está se tornando um novo padrão de governança algorítmica, essencial para a evolução da IA.

Desafios na América Latina

Na América Latina, a discussão sobre IA assume características específicas, onde inovação é vista como uma questão de sobrevivência. José Augusto Gabizo, VP da Fico para a região, destaca que a IA deve equilibrar inovação, regulação e inclusão financeira. O exemplo do Pix ilustra como a regulação pode impulsionar a inovação, resultando em uma rápida adoção tecnológica.

A Fico lançou recentemente os Focused Language Models (FLM), que se diferenciam dos grandes modelos generativos por serem treinados exclusivamente com dados financeiros. Esses modelos visam tarefas específicas, como identificar fraudes e apoiar decisões de crédito, aumentando a precisão e facilitando a comunicação com reguladores.

A Relação entre Humanos e Máquinas

Zoldi propõe uma inversão na relação entre humanos e máquinas, defendendo que as máquinas devem ser executoras enquanto os humanos definem diretrizes. Ele acredita que a IA só é verdadeiramente inteligente quando sabemos para onde direcioná-la. Essa abordagem está moldando uma nova geração de modelos sintéticos, onde humanos definem o sentido dos dados utilizados.

Essa visão pragmática contrasta com o otimismo de alguns setores do Vale do Silício. Zoldi menciona que 57% dos executivos financeiros acreditam que a IA responsável será fundamental para o retorno sobre investimento nos próximos anos, indicando que as empresas estão buscando soluções que funcionem e que atendam às exigências regulatórias.

Desafios Persistentes na Implementação da IA

Um dado preocupante de uma pesquisa global da Fico revela que 95% dos executivos C-level reconhecem que suas estratégias de IA não estão alinhadas aos objetivos de negócios. Zoldi destaca que, se a liderança de um banco não compreende a finalidade de sua IA, há um problema estrutural. A solução envolve padronização, colaboração entre áreas e a criação de modelos de decisão que tornem o raciocínio das máquinas mais transparente.

Ele conclui que a próxima revolução da IA não será sobre o que ela pode criar, mas sobre a capacidade de explicar suas decisões, com a confiança se tornando o novo código-fonte.

Fonte por: It Forum

Sair da versão mobile