top of page

Como utilizar a Inteligência Artificial Generativa na minha empresa

Parte I – Conceitos de IA


Sua empresa já investiu na Inteligência Artificial Generativa (“Generative AI” ou GenAI)? Se sim, como garante que não está desperdiçando dinheiro? Se não, até quando vai ignorar essa transformação?


Há uma quantidade absurda de desinformação sobre o que é a Inteligência Artificial (IA) e como a IA generativa realmente funciona. Isso está distorcendo o planejamento das empresas sobre o seu uso. Segundo estatísticas alarmantes da Gartner, até 2028, pelo menos 50% dos projetos de IA vão estourar seus orçamentos devido à escolha inadequada de arquiteturas e à falta de conhecimento operacional. Em outras palavras, estamos falando de bilhões de dólares jogados fora. 


Este artigo tem como objetivo esclarecer os principais conceitos da IA Generativa e LLMs, para que você possa tomar decisões estratégicas mais assertivas para o seu negócio e orientar seus investimentos.


Slide do Gartner Webinar - 2024
Slide do Gartner Webinar - 2024

Por que isso importa para sua empresa?


Porque já são inúmeros os casos de sucesso onde a Inteligência Artificial (IA) automatizou respostas, personalizou a experiência do cliente, aumentou a produtividade, reduziu custos operacionais e alavancou inovações. Então, a questão não é se algo será feito na sua empresa, mas como será feito, para não desperdiçar dinheiro, nem comprometer credibilidade ou a imagem institucional da empresa!


O caminho da especialização da IA para trabalhar com textos


A IA é um conjunto de tecnologias que permitem que máquinas realizem tarefas que normalmente exigiriam inteligência humana, como reconhecimento de padrões, tomada de decisões e automação de processos.


A GenAI é um tipo de inteligência artificial que pode criar conteúdo a partir de um processo de aprendizagem e de um modelo preparado para isto.


Um Grande Modelo de Linguagem (“Large Language Models” ou LLMs) é a GenAI que foi treinada para trabalhar com textos.


Para melhorar o entendimento:

  • IA Generativa: geração de qualquer tipo de conteúdo, tais como imagens e vídeos a partir de descrições textuais, geração de música e vozes, geração de códigos e criação de dados artificiais, semelhantes aos reais, úteis para treinar modelos de IA em cenários sensíveis, como na área médica.

  • LLMs: é uma GenAI especializada na geração de texto, o que inclui a tradução de idiomas, respostas a perguntas, criação de resumos e diálogos, simulando conversas de forma natural.


O que é um Modelo?


De forma simples, um Modelo é um programa de computador. Mas precisamos entender alguns detalhes: 

  • Um programa comum, como os que compõem os sistemas de informação das empresas (ex.: ERP, CRM e Aplicativos em geral), possui instruções escritas por pessoas (programadores) para dizer passo-a-passo o que deve ser feito com os dados que ele manipula. Assim, esses programadores escrevem uma sequência de instruções, chamada de algoritmo, que realiza a tarefa específica que ele deseja.

  • Um modelo utiliza tecnologias de IA que possuem um algoritmo capaz de se auto ajustar e, assim, aprender. Imagine que você está aprendendo a jogar futebol. No começo, quando você chuta a bola, pode errar o gol ou mandar muito fraco. Mas, a cada tentativa, você percebe o que dá certo e o que precisa melhorar. Se chutar forte demais e a bola sair, na próxima vez você tenta com menos força. Se errar a direção, ajuste o pé para acertar melhor. Com o tempo, seu chute fica mais preciso! Um modelo aprende de um modo parecido, com uma técnica chamada Aprendizagem de Máquina (“Machine Learning”), do tipo profunda (“Deep Learning”). 


Assim, enquanto o algoritmo dos programas comuns segue uma sequência fixa de instruções para chegar a um resultado, um algoritmo de IA evolui com base nos dados que processa e nos resultados que produz, aprendendo a ser cada vez mais preciso. Sim, eles utilizam redes neurais para simular o modelo de aprendizagem utilizado pelo cérebro humano, mas pouparemos você dos detalhes técnicos.


Por que “Grandes Modelos de Linguagem”?


O motivo é que ele foi preparado para processar textos e aprender as relações entre palavras, tanto semântica quanto sintaticamente. Isso quer dizer que foi criado um algoritmo especificamente para aprender a partir de textos, capaz de ser submetido a um intenso treinamento com um grande conjunto de dados textuais.


Esse treinamento permite que o algoritmo evolua de forma autônoma e, utilizando uma tecnologia de Processamento de Linguagem Natural que já existe há bastante tempo, consiga se comunicar como se fosse uma pessoa. Quanto maior o treinamento, maior será o vocabulário do modelo e a sua capacidade de gerar textos coerentes e precisos.


Assim, quando alimentamos nosso modelo de linguagem com um volume colossal de textos, estamos criando um Grande Modelo de Linguagem (LLM), capaz de não apenas identificar padrões e relações entre palavras, frases e parágrafos, mas também compreender diferentes significados de uma palavra e estruturas de linguagem.


Ilustração sobre o universo de palavras do LLM
Ilustração sobre o universo de palavras do LLM

Entendendo alguns termos técnicos


Para nos situarmos melhor numa conversa sobre o uso de LLMs, vale entendermos alguns termos importantes:

  • “Prompts”: os pedidos que fazemos ao LLM. Provavelmente você já viu inúmeras propagandas sobre cursos e palestras sobre Engenharia de Prompts, pois dominar a arte de fazer estes pedidos é fundamental para obter o máximo dos LLMs, direcionando-os para gerar respostas relevantes e personalizadas para as nossas necessidades;

  • “Tokens”: são palavras ou partes de uma palavra; e 

  • Contextos: o significado de cada palavra aprendida pelo modelo varia conforme o contexto em que ela é usada (pena como tipo de caneta, parte das aves, tipo de sentimento, um sobrenome etc).

  • Dimensões: cada palavra é armazenada de acordo com o seu significado, dado pelo contexto. São as dimensões que definem a localização das palavras dentro do espaço de armazenamento utilizado pelo LLM e, assim, esta localização reflete o significado que ela tem e todas as palavras próximas estão associadas ao mesmo contexto. Assim, quando falamos “Estou com pena de você”, o modelo identifica o contexto e sabe que estamos falando de sentimento e assim aciona as dimensões relacionadas a este significado, descartando na resposta palavras que estão relacionadas com um contexto de aves, canetas, nomes e assim por diante.

  • “Transformer” (Transformador): é a classificação que é dada ao LLM. Ele é um transformador porque recebe texto como entrada (“Prompt”), realiza várias análises e transformações para compreender esse texto e cria um texto de saída (resposta). Um “Transformer” gera uma resposta escolhendo uma palavra (“Token”) por vez, usando uma lógica sofisticada para buscar as palavras no seu universo e escolher aquela que tem maior probabilidade de se adequar à resposta, considerando todos os textos que ele aprendeu, o contexto e as palavras já anteriormente escolhidas.


Peço desculpas pelos detalhes técnicos, mas é essa abordagem que permite que o LLM compreenda o significado do texto, a estrutura da linguagem e as nuances da comunicação humana, capacitando-o a gerar novos textos, traduzir idiomas, criar diferentes tipos de conteúdo criativo, responder perguntas e até participar de conversas, conforme já citei.


Resumindo o funcionamento


Ao perguntar ao LLM “Quem foi Pelé?”, ele não vai usar um banco de dados com informações sobre pessoas para responder, como faria um sistema de informação tradicional. O LLM entenderá o contexto da pergunta, as palavras, montará a sintaxe da resposta e criará a resposta, escolhendo uma palavra após a outra. 


Ao montar a resposta desta forma, ele escolhe palavras sintática e semanticamente corretas, criando uma resposta perfeita, mas que pode estar errada. Quanto mais a informação é conhecida, mais ela existe em diversos textos usados para o treinamento e isso resulta num armazenamento interno mais preciso das palavras e numa geração igualmente mais precisa da resposta, com maior probabilidade de estar correta. 


Todavia, quando mais a informação que pedimos ao LLM não é conhecida, como quando pedimos sugestões de pontos turísticos em um determinado país, a resposta poderá vir errada, sugerindo um local que não existe naquele país, simplesmente porque o LLM escolheu uma palavra inadequada dentro do seu universo de palavras. Isto é conhecido como alucinação e é por este motivo que devemos analisar criticamente as respostas geradas, especialmente em contextos sensíveis, e validar as informações em fontes confiáveis.


Talvez você se questione: Como um LLM pode, então, dar respostas precisas, como a temperatura atual na minha cidade? Nestes casos, quando a solução comercial de GenAI identifica uma pergunta como muito pontual, requerendo conhecimento recente que está fora do material coletado para o seu treinamento, a resposta será uma combinação inteligente de conhecimento interno do LLM com uma busca externa de informações, através de uma técnica chamada RAG (“Retrieval-Augmented Generation”). Realiza-se estas buscas pontuais em fontes confiáveis da internet, a fim de obter dados climáticos em tempo real e então passar esses dados para o LLM montar o texto da resposta. É uma abordagem híbrida que utiliza o melhor de ambos os mundos: a vastidão do conhecimento interno do LLM com a busca de dados em fontes específicas atuais.


Os componentes que realizam essa função não fazem parte de um LLM, mas foram integrados a ele como parte da solução de GenAI das empresas que desenvolveram o LLM.


Componentes das soluções de LLM no mundo da IA


Veja na figura abaixo onde estão os elementos que compõem as soluções de IA generativa que tanto estão mudando nossas vidas.


Contexto dos LLMs
Contexto dos LLMs

Agora, não confunda o Modelo de LLM com as aplicações que você utiliza para interagir com eles, tais como:

  • ChatGPT (OpenAI) usa LLMs como GPT-4o e o1.

  • Gemini (Google Deepmind) usa LLMs como Gemini 1.5.

  • Copilot (Microsoft) usa os LLMs da OpenAI.

  • Claude (Anthropic) usa os LLMs da família Claude3, com três modelos distintos: Opus, Sonnet e Haiku.

  • Meta AI (Meta) usa LLMs como Llama3 e Llama 2; e

  • DeepSeek Chatbot (DeepSeek) usa o LLMs DeepSeek-R1, baseado no LLM DeepSeek-V3.


Por que as ações da NVIDIA despencaram no final de janeiro?


No final de janeiro foi apresentado pela startup chinesa DeepSeek o LLM DeepSeek-R1. Essa notícia foi impactante em virtude da revolucionária e criativa forma como o DeepSeek-R1 foi treinado. Eles utilizaram significativamente menos poder computacional e investiram apenas uma pequena fração dos custos que as empresas líderes de mercado vinham exigindo para treinar seus modelos. Isto gerou grande repercussão e dúvidas até sobre a real necessidade de grandes infraestruturas computacionais para os recorrentes treinamentos das novas versões dos modelos. As ações da NVIDIA ainda se recuperam da queda que tiveram de 17% em um único dia.


Conclusão


Espero que você já esteja se sentindo um pouco mais à vontade com os termos, jargões e conceitos comuns nas conversas sobre IA, mas, principalmente, entendendo que a IA não é realmente inteligente. Gosto do conceito de pseudo inteligência simulada, com um aprendizado de máquina, em vez de um aprendizado significativo e ativo. Ter a noção de que a IA é realmente inteligente é muito perigoso e inseguro. 


Este entendimento é fundamental para uma análise estratégica de cenários, do que podemos fazer agora e os cuidados que devemos ter nas decisões de investimento e sobre o como utilizar a IA nos negócios e na sua empresa. 


Talvez ainda esteja se questionando: Mas como posso utilizar um LLM para criar vantagem competitiva e ampliar minhas receitas? Como o LLM pode responder com base nos dados do meu negócio? Bom, isto faz parte do que abordaremos nos próximos artigos! Quer ser notificado? Siga a Bizup em nossas redes sociais e compartilhe este artigo para ajudar outras pessoas!



Comments


bottom of page