Assista a Money Week
Compartilhar no LinkedinCompartilhar no FacebookCompartilhar no TelegramCompartilhar no TwitterCompartilhar no WhatsApp
Compartilhar
Home
Notícias
O que está por trás da inteligência artificial de crédito do Nubank

O que está por trás da inteligência artificial de crédito do Nubank

O indiano Krishna Venkatraman no início do ano,  trocou a vice-presidência de ciência de dados da IBM em Nova York, pela cidade de São Paulo. Contudo, no Brasil, o pós-doutor em Engenharia Industrial pela Universidade Stanford, dirige a área de ciência de dados do Nubank (a fintech que mais emite cartões de crédito no país).

Durante entrevista exclusiva ao Estado, Venkatraman contou alguns segredos da IA do Nubank. Sobretudo, explicando como a empresa usa algoritmos para identificar bons e maus pagadores. Dentre as informações estão relatórios de birôs de crédito, comportamento de compras e até recomendações de usuários que também já são clientes.

O doutor também fala como a fintech faz para evitar o viés nos algoritmos. O que se tornou um problema que vem chamando cada vez mais a atenção. Nos EUA, por exemplo, a Apple foi acusada de oferecer limites menores às mulheres no cartão de crédito, denominado Apple Card.

Entrevista dada ao jornal

Acompanhe parte da entrevista dada pelo doutor Venkatraman ao jornal Estado

É fácil saber quais serão os bons e os maus pagadores. Mas entre eles há uma grande zona cinza. Como navegar por ela?

É na zona cinza que estão as oportunidades. Aprovação de crédito é um processo caro – e isso já exclui muita gente, porque o custo é muito alto, então só ficam os consumidores que “valem a pena”. Com IA, podemos reduzir tempo e custo radicalmente, analisando o crédito em segundos – e não em uma semana. Quando tratamos o crédito, precisamos analisar a possibilidade de uma pessoa pagar de volta e como equilibrar esse custo. Não é a máquina que toma as decisões. São pessoas usando informações, deliberadamente. Se um usuário tem alto risco em certo limite, concedemos a ele limite mais baixo. Assim, a pessoa pode usar nosso produto e, com mais informações, podemos até aumentar o limite.

Publicidade
Publicidade

Vocês usam dados ‘não tradicionais’ na análise de crédito?

Usamos apenas na área de atendimento ao cliente. Temos uma base de usuários enorme e eles têm perguntas diferentes.Não é possível ter funcionários lendo todas mensagens para tentar adivinhar as respostas, não é algo escalável. Em relação ao crédito, a decisão de crédito tem que ser baseada nos comportamentos ligados a crédito.

O comportamento em redes sociais ou no WhatsApp influencia a obtenção de crédito?

Não fazemos isso. É melhor confiar no que a pessoa fez. Nunca usaremos, sem permissão clara, dados que são dos clientes, não estamos nos negócios de garimpar dados ou bisbilhotar o texto das mensagens de alguém. Se você pensar, pode ter consequências não intencionais se usar outros tipos de dados no sistema.

Que consequências seriam essas?

As pessoas interagem em um ambiente diferente nas redes sociais. Não há sinais fortes que possam ser aproveitados numa análise de dados. Se usarmos sinais como esses, podemos abrir nosso negócio para pessoas que mudam seu comportamento só para se adequar ao modelo – o que acaba sendo o oposto do que se quer. Soa legal dizer que se faz análise de redes sociais, mas tenho uma visão pragmática de IA. Precisamos usar dados realmente eficientes.

O Brasil tem muitas diferenças sociais. Como garantir que essas disparidades não se reflitam no julgamento de crédito pela IA?

Queremos saber apenas quais são as condições e fatores que afetam crédito, como renda ou ficha criminal. São coisas razoáveis de se supor e não são segregatórias. Sociedades podem ter diferentes proporções de pessoas com certas características, mas não se deve condicionar uma decisão sobre isso. Não dá só aprovar um número “x” de pessoas num grupo: tem que olhar para os fatores de crédito que sustentam a decisão e analisar se ela é justa ou não.

E como garantir um sistema que não tem viés, sendo justo com todos os que buscam crédito?

O viés existe independentemente da IA. Se eu só falasse em regras, sem pensar em IA, como saberíamos que ela são justas? O segredo não é usar a máquina como caixa preta, concordando diretamente com a previsão dela. Pensamos em causalidade: nossos modelos são construídos para terem explicação sobre as decisões. Sempre fazemos testes para ter mais sinais sobre clientes que a máquina diz ser de alto risco. São pessoas que queremos que entrem em nosso sistema, mas de quem queremos ter mais informações.

Como usar dados e respeitar privacidade?

Nos próximos 10 anos, os clientes tomarão as rédeas sobre os direitos de seus dados. Também sou um consumidor e acho isso bom: quem trabalha com isso precisa pensar em como administrar os dados para gerar benefícios, sem expor as informações. É possível anonimizar dados sensíveis ou remover informações pessoais a menos que seja extremamente necessário, como em casos de fraude. Não há razão para um cientista de dados saber precisamente quem é determinado cliente, porque ele pode analisar pelo contexto.