N.World
NPL

Estudo de caso: Últimos desenvolvimentos no campo do processamento de linguagem natural (NPL), um PoC para BBVA

De Bosonit e Nfq testamos os últimos avanços em Processamento de Linguagem Natural (NPL) em um PoC com o departamento de Inovação do BBVA da CIB & CS, aplicando a IA e a Machine Learning à democratização do conhecimento das equipes técnicas, obtendo avanços na resolução e gestão de consultas técnicas e incidentes.

O PdC permitiu ao grupo compreender o estado atual do campo da PNL. Também os limites dos modelos de última geração no campo e suas possíveis aplicações. O resultado deste CdP é uma ferramenta de Q/A (Perguntas/Respostas) para a resolução de consultas/incidentes com base nas informações históricas de BBVA.

Trabalhando com BBVA nesta prova de conceito sobre NPL é de grande valor e dá visibilidade a Bosonit y Nfq em campos e áreas onde éramos conhecidos. O resultado do teste mostra um grande potencial para tornar o caso de uso produtivo e até mesmo incorporá-lo à nossa oferta de serviços.

Quem tem participado deste projeto?

Para este desafio, a equipe do Grupo N foi formada por Manuel Ranea (Nfq) y Javier Gonzalez Peñalosa (Bosonit), que nos fala sobre o processo.

Ferramenta de Q/A com NPL Q&A

Em vista do lançamento de um novo modelo NPL chamado GPT-3 pela empresa ABERTO IA com resultados bem sucedidos em uma variedade de tarefas na área. Decidimos empreender uma prova de conceito neste campo. O GPT-3 venceu diferentes resultados definidos por modelos anteriores em tarefas como síntese de informações, perguntas e respostas, identificação de auto-identidade e geração de texto, o que o tornou um modelo perfeito para a criação de um chatbot de perguntas. Através dele, conversas coerentes podem ser realizadas sobre diferentes tópicos, ao mesmo tempo em que se consegue manter o contexto da conversa. O problema com este modelo é que, devido ao seu grande tamanho, era impossível especializá-lo em um setor tão técnico, pois poderia ser nossa informação a partir dos diferentes departamentos da empresa. BBVA. Também deve ser observado que este não era um modelo Open Source, o que levaria a um custo adicional para a empresa toda vez que a informação fosse solicitada ao modelo, tornando o projeto inviável com ele.

Para superar este problema, usamos modelos menores, tanto da Open IA como do Google, que terão sido disponibilizados gratuitamente para uso público. Escolhemos o GPT-2 e o BERT por serem os candidatos perfeitos para nossa tarefa e por serem amplamente reconhecidos por seus resultados. Uma vez treinados e testados esses modelos, percebemos rapidamente que eles eram incapazes de se adaptar aos textos técnicos. Os modelos foram projetados para gerar textos a partir de conversas informais ou notícias, então tivemos que mudar a idéia do desenvolvimento de nossos produtos. Não foi possível treinar modelos capazes de aprender todos os métodos e estratégias para resolver problemas técnicos que o banco possui porque pequenos detalhes ou sentidos na pergunta poderiam mudar a resposta que demos ao funcionário e torná-la incorreta.

Um exemplo disso poderia ser um problema com a conexão de ferramentas em diferentes sistemas operacionais. Se o modelo tivesse obtido as informações ao treiná-lo sobre este problema no Windows, ele retornaria estas informações, mas em nosso caso ainda queríamos resolvê-lo no Linux. Isto resultou em inconsistências no resultado para o funcionário.

É por isso que consideramos mudar nosso foco principal e usar todo o potencial que já tínhamos para perguntas e respostas nas diferentes plataformas do banco, para dar mais peso às respostas das pessoas e deixar que o modelo se encarregue de encontrar a resposta e dar-lhe de volta as informações mais de acordo com sua pergunta.

Para realizar nossa ferramenta utilizamos diferentes técnicas e modelos que nos permitiram agrupar todas as informações que tínhamos em um banco de dados e através de transformadores (ferramentas de última geração) pudemos sintetizar as informações a partir das respostas, para que o funcionário pudesse encontrar a solução mais próxima ao seu problema. Nas informações que tínhamos, havia perguntas diretas, mas também havia tópicos em que diferentes agentes participavam de um problema. Nas soluções de resposta única utilizamos um modelo de síntese normal, mas nas soluções de múltiplas roscas optamos por um modelo que não só é capaz de coletar as informações dos agentes, mas também as interações entre eles, e que nos permitiu agregar mais valor ao nosso resultado.

Bosonit

Bosonit

Técnica e Dados

Você pode estar interessado em

Dê o salto
tecnológico.

Entre em contato conosco.