Vandaag @mpp @gakonst uitgeprobeerd en een LLM chat-API gebouwd die per token rekent via betalingskanalen op het @tempo mainnet. Gewoon een wallet met USD en stream tokens @claudeai @OpenAI @OpenRouter @alt_layer. Live op . Open source op .
Het probleem met LLM-facturering: je maakt een account aan, voegt een creditcard toe, stelt bestedingslimieten in, ontvangt maandelijks een factuur, reconciliëren. Voor agents die duizenden API-aanroepen per uur doen, is dit gebroken. MPP lost het op op protocolniveau.
Hoe het werkt: de client verstuurt POST /api/chat. De server retourneert HTTP 402 met een MPP-uitdaging. De client opent een betalingskanaal op Tempo met pathUSD. De server streamt tokens via SSE, en roept charge() aan voor elk token. Kosten worden in real-time bijgewerkt. Kanaal wordt afgesloten bij sluiten.
Wat maakt MPP anders dan Stripe: geen overhead per aanvraag. Het betalingskanaal opent één keer. Vervolg tokens worden in rekening gebracht tegen het kanaal saldo met alleen een handtekening, geen on-chain transactie. 1000 tokens = 1000 kosten = 0 extra gas.
Live op . Open source op . MIT-licentie. pathUSD op Tempo mainnet. cc @tempo @stripe @paradigm @gakonst @wevm_dev @openrouter @alt_layer
287