Veröffentlicht: 28. Februar 2025
Die integrierte KI nutzt Gemini Nano, um Inferenzen für alle APIs durchzuführen. Manchmal gibt Gemini Nano eine Fehlermeldung zurück oder das erwartete Ergebnis wird nicht zurückgegeben. Sie können Debug-Informationen für alle eingebauten KI-APIs aufrufen, die Gemini Nano verwenden. Dazu gehören die Prompt API, die Summarizer API, die Writer API und die Rewriter API.
- Öffnen Sie Chrome und rufen Sie
chrome://on-device-internals
auf. - Wählen Sie Ereignisprotokolle aus.
- Optional: Klicken Sie auf Dump, um eine JSON-Datei mit allen Ereignisinformationen herunterzuladen.
Sie können einen Fehler melden, damit wir diesen Fehler in unserer Implementierung beheben können.
Beispiel: Prompt API debuggen
In der folgenden Sitzung hat der Nutzer beispielsweise Reimwörter von der Prompt API angefordert.
const session = await ai.languageModel.create({
systemPrompt: "You are an API endpoint that returns rhymes as JSON for an input word."
});
await session.prompt([
{ role: "user", content: "house" },
{ role: "assistant", content: "{\"input\": \"house\", \"output\": \"mouse\"}" },
{ role: "user", content: "file"},
]);
Die Antwort des Modells sah so aus, für bessere Lesbarkeit formatiert:
```json
[]
```
**Reasoning:**
The input you provided (empty arrays) is an empty list or array in JSON format.
When you try to find rhymes for an empty list, you're essentially looking for
words that rhyme with nothing.
Therefore, there are no rhymes to return. The JSON response will be an empty
array `[]`."
Warum hat das Modell keine JSON-Nachricht mit einem Reimwort zurückgegeben, idealerweise {"input": "file", "output": "pile"}
? Auch wenn strukturierte Ausgabe zum Zeitpunkt der Erstellung dieses Artikels noch nicht implementiert ist, sollte die Antwort die Reimaufgabe zumindest irgendwie erfüllen.
Rufen Sie chrome://on-device-internals/
auf und gehen Sie zum Tab Ereignisprotokolle, um diesen Fehler zu beheben. Das Protokoll zeigt, dass das Problem bei der Interpretation des Prompts durch das Modell lag. Anstatt JSON hat das Modell die Eingabe als String interpretiert: [object Object],[object Object],[object Object]
.
Hier ist die vollständige Debug-Nachricht, formatiert für bessere Lesbarkeit:
Executing model with input context of 0 tokens:
<system>You are an API endpoint that returns rhymes as JSON for an input word.<end>
with string: <user>[object Object],[object Object],[object Object]<end> <model>
Wir haben diese Informationen zu einem Fehler für das Modellproblem hinzugefügt: Die Prompt API führt toString()
anscheinend auf JSON-Eingabe aus. Das half dem Entwicklerteam, das Problem zu identifizieren.
Feedback geben
Teile uns dein Feedback zur Fehlerbehebung mit, indem du einen Fehlerbericht einreichst.