Disponibilizando a tecnologia da Wolfram como uma ferramenta fundamental para sistemas de LLM

Por Stephen Wolfram

Modelos de Fundação precisam de uma Ferramenta Fundamental

LLMs não fazem — e não podem fazer — tudo. O que fazem é muito impressionante — e útil. É algo amplo. E, de muitas maneiras, semelhante ao raciocínio humano. Mas não é preciso. E, no fim, não envolve computação profunda.
Então, como podemos complementar os modelos de fundação baseados em LLM? Precisamos de uma ferramenta fundamental: uma ferramenta ampla e geral que faça aquilo que as próprias LLMs não fazem — fornecer computação profunda e conhecimento preciso.
E, convenientemente, é exatamente isso que venho construindo nos últimos 40 anos. Meu objetivo com a Wolfram Language sempre foi tornar computável tudo o que pudermos sobre o mundo. Reunir de forma coerente e unificada os algoritmos, métodos e dados necessários para realizar computação precisa sempre que isso for possível. Foi um empreendimento enorme, e ouso dizer que também foi extremamente bem-sucedido — impulsionando inúmeras descobertas e invenções (inclusive minhas) em uma notável variedade de áreas da ciência, da tecnologia e além.
Agora, porém, não são apenas os humanos que podem tirar proveito dessa tecnologia; as IAs — e em particular as LLMs — também podem. Modelos de fundação baseados em LLM são poderosos; e combinados com nossa ferramenta fundamental são mais poderosos ainda . Com a maturação das LLMs, finalmente estamos em posição de oferecer a elas acesso à tecnologia da Wolfram de forma padronizada e geral.
Acredito que este seja um importante momento de convergência. Ao longo das décadas, meu conceito sempre foi construir tecnologia extremamente ampla e geral — algo que se encaixa perfeitamente na amplitude dos modelos de fundação baseados em LLM. LLMs podem chamar ferramentas especializadas específicas, e isso será útil para muitos propósitos especializados. Mas o que a Wolfram Language representa de maneira única é uma ferramenta geral, com acesso geral ao enorme poder que computação precisa e conhecimento estruturado proporcionam.
E temos muito mais. Desde o início, projetei a Wolfram Language para ser um meio poderoso não apenas para realizar computações, mas também para representar e pensar sobre coisas de maneira computacional. Sempre presumi que estivesse fazendo isso para humanos. Agora descobrimos que as IAs precisam das mesmas coisas — e que a Wolfram Language oferece o meio perfeito para que IAs “pensem” e “raciocinem” computacionalmente.
Há ainda outro ponto importante. Em seu esforço para tornar o máximo possível computável, a Wolfram Language não apenas contém uma quantidade imensa de recursos internos, como também fornece um hub singularmente unificado para conexão com outros sistemas e serviços. E essa é parte da razão pela qual agora é possível estabelecer uma conexão tão eficaz entre modelos de fundação baseados em LLM e a ferramenta fundamental que é a Wolfram Language.

A tecnologia para usar nossa Ferramenta Fundamental já está aqui

Em 9 de janeiro de 2023, poucas semanas depois de o ChatGPT surgir no cenário, publiquei um artigo intitulado “Wolfram|Alpha as the Way to Bring Computational Knowledge Superpowers to ChatGPT”. Dois meses depois lançamos o plugin Wolfram para o ChatGPT ((e, nesse intervalo, escrevi o que rapidamente se tornou um pequeno livro bastante popular chamado What Is ChatGPT Doing ... and Why Does It Work?). O plugin foi um começo modesto, mas promissor. No entanto, naquele momento, as LLMs e o ecossistema ao redor delas ainda não estavam realmente prontos para a história maior.
Será que, no fim das contas, as LLMs realmente precisariam de ferramentas? Ou — apesar das questões fundamentais que, pelo menos para mim, eram cientificamente bastante claras desde o início — as LLMs encontrariam magicamente uma maneira de realizar computação profunda por conta própria? Ou conseguiriam garantir resultados precisos e confiáveis? E mesmo que as LLMs viessem a usar ferramentas, como esse processo seria arquitetado, e qual seria o modelo de implantação?
Três anos se passaram, e muita coisa ficou mais clara. As capacidades centrais das LLMs passaram a ser melhor compreendidas (mesmo que ainda exista muito que não sabemos cientificamente sobre elas). Também ficou muito mais claro que — pelo menos nas modalidades que as LLMs atualmente abordam — a maior parte do crescimento de seu valor prático dependerá de como elas são integradas e conectadas. E esse entendimento destaca mais do que nunca a importância de fornecer às LLMs a ferramenta fundamental que nossa tecnologia representa.
A boa notícia é que agora existem formas simplificadas de fazer isso — utilizando protocolos e métodos que surgiram em torno das LLMs, juntamente com novas tecnologias que desenvolvemos. Quanto mais estreita for a integração entre modelos de fundação e nossa ferramenta fundamental, mais poderosa será a combinação. Em última análise, será uma questão de alinhar o pré-treinamento e a engenharia central das LLMs com nossa ferramenta fundamental. Mas há também uma abordagem imediatamente aplicável e amplamente utilizável hoje — para a qual estamos lançando vários novos produtos — baseada no que chamamos de CAG ou geração aumentada por computação (do inglês: computation-augmented generation).
A ideia central da CAG é injetar em tempo real capacidades da nossa ferramenta fundamental no fluxo de conteúdo gerado pelas LLMs. Na RAG tradicional ou geração aumentada por recuperação (do inglês: retrieval-augmented generation), injeta-se conteúdo recuperado de documentos existentes. A CAG é como uma extensão infinita da RAG, na qual uma quantidade potencialmente infinita de conteúdo pode ser gerada dinamicamente — por meio de computação — para alimentar uma LLM. Internamente, a CAG é uma tecnologia relativamente complexa que levou muito tempo para desenvolvermos. Mas, em sua implantação, fizemos com que fosse fácil de integrar em sistemas e fluxos de trabalho existentes relacionados a LLMs. E hoje estamos lançando essa tecnologia, de modo que, daqui em diante, qualquer sistema de LLM — e qualquer modelo de fundação baseado em LLM — poderá contar com acesso à nossa ferramenta fundamental, complementando suas capacidades com o superpoder da computação profunda e precisa e do conhecimento estruturado.

Aspectos Práticos

Hoje estamos lançando três métodos principais para acessar nossa Ferramenta Fundamental, todos baseados em CAG e todos apoiados em nossa ampla infraestrutura de engenharia de software.
All images need to be cut into the text.

MCP Service

Permite chamar imediatamente nossa Ferramenta Fundamental a partir de qualquer sistema baseado em LLM compatível com MCP. A maioria dos sistemas de LLM voltados ao consumidor agora oferece suporte a MCP, o que torna essa integração extremamente simples de configurar. Nosso principal MCP Service é uma API web, mas também há uma versão que pode utilizar um Wolfram Engine local.

Agent One API

Um “agente universal” completo, que combina um modelo de fundação baseado em LLM com nossa Ferramenta Fundamental. Foi concebido como substituto direto para APIs tradicionais de LLM.

CAG Component APIs

Oferecem acesso direto e detalhado à tecnologia Wolfram para sistemas baseados em LLM, permitindo integração otimizada e personalizada em sistemas de qualquer escala. (Toda a tecnologia da Wolfram está disponível tanto em ambiente hospedado quanto em ambiente local.)
Text immediately below goes in a blue box:
Lista de Capacidades da Ferramenta Fundamental Wolfram »
Para mais informações sobre opções de acesso e integração, entre em contato com nossa equipe de Parcerias. »