Ei DEV: Tua app tá pronta pra conversar com LLMs?
Frontend → Backend → API LLM → Resposta
Se é só um POST… por que a conta explode?
const response = await fetch("/api/llm", {
method: "POST",
body: JSON.stringify({
system: "Você é um analista financeiro.",
context: dados,
question: "pergunta"
})
})
Nada disso é grátis.
{
"user": "AlessandroFeitoza",
"message": "Explique orientação a objetos"
}
Aspas. Chaves. Vírgulas. Indentação.
Tudo vira token.
Se o prompt é pesado, a LLm fica lenta
Tratar LLM como API REST comum
return response()->json([
"status" => "success",
"data" => [
"title" => "...",
"description" => "...",
"confidence" => 0.98
]
]);
Você está pagando por sintaxe.
JSON é pra
humano ver
{
"name": "Chiquim",
"phones": [
"85 9 8888-9999",
"85 9 9797-1234"
]
}
{"name": "Chiquim", "phones": ["85 9 8888-9999", "85 9 9797-1234"]}
Text-Oriented Object Notation
{
"title": "OO",
"summary": "Paradigma...",
"keywords": ["classe","objeto"]
}
title: OO
summary: Paradigma...
keywords: classe | objeto
Menos tokens. Mesma informação.
Controller
↓
Prompt Builder
↓
Context Optimizer
↓
LLM Client
↓
TOON Parser