Venedig hat gerade eine Ende-zu-Ende-verschlüsselte KI-Inferenz veröffentlicht. Jede große KI-Plattform heute basiert auf derselben grundlegenden Vertrauensannahme. Man muss dem Anbieter vertrauen, dass er mit den eigenen Daten verantwortungsvoll umgeht. @AskVenice hat mit einer etwas anderen Architektur gearbeitet. Gespräche werden lokal auf deinem Gerät gespeichert und Eingabeaufforderungen werden nicht serverseitig gespeichert. Wenn du Grenzmodelle verwendest, leitet Venedig die Anfrage weiter, sodass der Anbieter niemals deine Identitätsdaten erhält. Allerdings gelten hier die gleichen Vertrauensannahmen. Wenn Venedig oder ein Partner Daten abfangen wollte, würde nichts in der Architektur dies verhindern. Der neue Launch führt zwei hardwaregestützte Datenschutzmodi ein. TEE führt die Inferenz innerhalb sicherer Hardware-Enklaven durch, die von NEAR AI Cloud und Phala Network betrieben werden, und isoliert die Berechnung vom Host-Betriebssystem und dem Infrastrukturbetreiber. Remote Attestation verknüpft ein kryptografisches Zertifikat mit der physischen Hardware, sodass jeder unabhängig überprüfen kann, dass das Modell innerhalb einer echten Enklave läuft. Du musst dem GPU-Betreiber nicht mehr vertrauen, aber du vertraust immer noch der Transit-Schicht von Venedig. E2EE entfernt diese verbleibende Vertrauensannahme. Eingabeaufforderungen werden auf dem Gerät vor der Übertragung verschlüsselt, bleiben während der gesamten Infrastruktur von Venedig verschlüsselt und werden nur innerhalb der verifizierten Enklave entschlüsselt. Venedig kann deine Daten zu keinem Zeitpunkt während des normalen Betriebs sehen. Der Nachteil ist, dass die Antworten möglicherweise langsamer sind, Websuche und Speicher sind deaktiviert, da sie eine Entschlüsselung außerhalb der Enklave erfordern würden. Beide Modi laufen derzeit auf einer Handvoll Open-Source-Modellen über NEAR AI Cloud und Phala Network und sind exklusiv für Pro-Abonnenten.