Venice har precis levererat end-to-end-krypterad AI-inferens. Varje större AI-plattform idag bygger på samma grundläggande förtroendeantagande. Du måste lita på att leverantören hanterar dina data ansvarsfullt. @AskVenice har haft en något annorlunda arkitektur. Konversationer lagras lokalt på din enhet och prompts är inte bevarade på serversidan. När du använder Frontier-modeller proxy:ar Venice begäran så att leverantören aldrig får dina identitetsuppgifter. Dock gäller samma förtroendeantaganden fortfarande här. Om Venice eller en partner ville avlyssna data skulle inget i arkitekturen hindra det. Den nya lanseringen introducerar två hårdvarukontrollerade integritetsläge. TEE kör inferenser inne i säkra hårdvaruenklaver som drivs av NEAR AI Cloud och Phala Network, vilket isolerar beräkningar från värdoperativsystemet och infrastrukturoperatören. Fjärrattestering kopplar ett kryptografiskt certifikat till den fysiska hårdvaran så att vem som helst självständigt kan verifiera att modellen körs inom en äkta enklav. Du behöver inte längre lita på GPU-operatören men du litar fortfarande på Venices transitlager. E2EE tar bort det kvarvarande förtroendeantagandet. Prompts krypteras på enheten innan överföring, förblir krypterade via Venices infrastruktur och dekrypteras endast inom den verifierade enklaven. Venice kan inte se dina data vid något tillfälle under normal drift. Nackdelen är att svaren kan vara långsammare, webbsökning och minne är inaktiverade eftersom de skulle kräva dekryptering utanför enklaven. Båda lägena körs för närvarande på ett fåtal öppna källkodsmodeller via NEAR AI Cloud och Phala Network och är exklusiva för Pro-prenumeranter. Hur robusta dessa garantier är i praktiken beror på hur intygningen genomförs och om oberoende revisioner bekräftar påståendena.