5 Min. Lesezeit

Claude Opus 4.7 ist gerade veröffentlicht worden. Das sollten Sie wissen

Die meisten Modell-Upgrades sind inkrementell. Bessere Benchmarks, eine Pressemitteilung, vielleicht ein paar Prozentpunkte auf einem Leaderboard, das außerhalb von ML Twitter ohnehin niemand prüft. Man aktualisiert, wenn man dazu kommt.

Claude Opus 4.7 ist anders. Anthropic hat zusammen mit den Leistungsverbesserungen auch Breaking Changes an der API ausgeliefert. Das bedeutet, dass Enterprise-Teams, die Agenten in der Produktion betreiben, nicht einfach die Modell-ID austauschen und weitermachen können. Das Upgrade ist real, aber der Migrationsaufwand ebenso.

Was wurde in Claude Opus 4.7 ausgeliefert

Anthropic hat Claude Opus 4.7 am 16. April veröffentlicht, verfügbar über die Claude API, Amazon Bedrock, Google Cloud Vertex AI und Microsoft Foundry. Die Preisgestaltung bleibt gegenüber Opus 4.6 unverändert: 5 $ pro Million Input-Tokens und 25 $ pro Million Output-Tokens.

3x höhere Vision-Auflösung. Das Modell akzeptiert jetzt Bilder mit bis zu 2.576 Pixeln an der langen Kante, also rund 3,75 Megapixel, mehr als das Dreifache des bisherigen Limits von 1.568 Pixeln. Für KI-Agenten, die Dokumente verarbeiten, Screenshots lesen oder Daten aus komplexen Diagrammen extrahieren, ist dies die mit Abstand folgenreichste Änderung. Koordinaten werden nun 1:1 auf tatsächliche Pixel abgebildet, wodurch die Skalierungsrechnung entfällt, die frühere Vision-Workflows aus dem Tritt gebracht hat.

Task-Budgets. Eine neue Beta-Funktion, mit der Entwickler über einen vollständigen agentischen Loop hinweg ein orientierendes Token-Budget festlegen können, einschließlich Denken, Tool-Aufrufen, Ergebnissen und finaler Ausgabe. Das Modell sieht einen laufenden Countdown und reguliert sich selbst. Das ist kein harter Grenzwert. Es ist ein Vorschlag, dessen sich das Modell bewusst ist. Für Enterprise-Teams, die die Kosten ihrer Agentenflotte steuern, ist dies der erste native Mechanismus, um Token-Ausgaben zu kontrollieren, ohne Fähigkeiten zu beschneiden.

Neue Effort-Stufe xhigh. Ein feinerer Steuerpunkt zwischen high und max reasoning. Claude Code verwendet für alle Pläne jetzt standardmäßig xhigh, was signalisiert, dass Anthropic dies als den Sweet Spot für agentisches Coding betrachtet.

Besseres Gedächtnis. Das Modell ist messbar besser darin, Dateisystem-basierte Speicher über mehrere Sitzungen hinweg zu schreiben und zu nutzen. Agenten, die Scratchpads, Notizen oder strukturierte Speicherablagen pflegen, sollten ohne Prompt-Änderungen Verbesserungen sehen.

Wörtlichere Befolgung von Anweisungen. Opus 4.7 interpretiert Anweisungen wörtlicher als sein Vorgänger, insbesondere auf niedrigeren Effort-Stufen. Es wird eine Anweisung nicht stillschweigend von einem Element auf ein anderes verallgemeinern oder Anforderungen ableiten, die Sie nicht gestellt haben. Das ist ein Vorteil für präzisionskritische Enterprise-Workflows und ein potenzieller Stolperstein für Teams mit locker formulierten Prompts.

Was bricht

Hier unterscheidet sich Opus 4.7 von einem typischen Modell-Upgrade.

Erweiterte Thinking-Budgets gibt es nicht mehr. Das Setzen expliziter Thinking-Budgets führt jetzt zu einem 400-Fehler. Adaptive Thinking ist der einzige unterstützte Modus und standardmäßig deaktiviert. Teams, die sich auf explizite Thinking-Budgets verlassen haben, müssen auf Adaptive Thinking mit Effort-Stufen migrieren.

Sampling-Parameter gibt es nicht mehr. Das Setzen von temperature, top_p oder top_k auf einen anderen als den Standardwert führt zu einem 400-Fehler. Wenn Ihre Agenten-Pipelines temperature auf null setzen, um Determinismus zu erzwingen, bricht dieser Code beim Upgrade. Der Migrationspfad besteht darin, diese Parameter vollständig zu entfernen und das Verhalten über Prompting zu steuern.

Neuer Tokenizer. Die Anzahl der Input-Tokens steigt je nach Inhalt um etwa das 1- bis 1,35-Fache. Derselbe Prompt kostet dadurch bis zu 35 % mehr Tokens in der Verarbeitung. Das beeinflusst Kostenprognosen, Kontextfenster-Budgets und alle hart kodierten max_tokens-Werte, die auf Opus 4.6 abgestimmt waren.

Thinking-Inhalte sind standardmäßig ausgeblendet. Thinking-Blöcke erscheinen weiterhin im Stream, ihr Inhalt ist jedoch leer, sofern Sie nicht ausdrücklich zugestimmt haben. Produkte, die Reasoning an Nutzer streamen, sehen sonst eine lange Pause, bevor die Ausgabe beginnt, bis sie aktualisiert werden.

Was das für Enterprise-Agenten-Deployments bedeutet

Drei Auswirkungen, die man sich genauer ansehen sollte.

Vision-intensive Agenten sind gerade deutlich besser geworden

Dokumentenverarbeitung, Rechnungsextraktion, Screenshot-Verifikation, Diagrammanalyse, Prüfung von Compliance-Dokumenten. Jeder Agenten-Workflow, der Bilder mit hoher Detailtiefe liest, verbessert sich spürbar. Die 3-fache Erhöhung der Auflösung ist nicht marginal. Sie ist der Unterschied zwischen einem Agenten, der einen dichten Finanzbericht lesen kann, und einem, der es nicht kann.

Für Unternehmen, die KI-Agenten in regulierten Branchen wie Banking und Versicherungen einsetzen, in denen Dokumentengenauigkeit nicht verhandelbar ist, ist dies wahrscheinlich die folgenreichste Fähigkeit, die in diesem Jahr mit einem Modell-Update ausgeliefert wurde.

Die Breaking Changes sind ein Katalysator für Plattform-Abstraktion

Wenn Sie Agenten direkt gegen die Anthropic API betreiben, ist die Migration auf Opus 4.7 echte Arbeit. Sie müssen jede Pipeline auf Thinking-Budgets, Sampling-Parameter, Tokenizer-Annahmen und Anzeigeeinstellungen für Thinking prüfen. Multipliziert man das über Dutzende von Agenten, wird aus dem Upgrade ein Projekt und kein Schalter.

Genau hier zahlen sich modellagnostische Agentenplattformen aus. Wenn die Orchestrierungsschicht die Modellabstraktion übernimmt, ist ein Modell-Upgrade eine Konfigurationsänderung und kein Engineering-Sprint. Die Plattform fängt die Breaking Changes ab, damit die Geschäftsworkflows es nicht müssen.

Task-Budgets markieren den Beginn kostenbewusster agentischer KI

Bisher bedeutete die Steuerung von Agentenkosten entweder, Tokens pauschal zu begrenzen (was die Qualität verschlechtert) oder das Modell ungebremst laufen zu lassen (was die Budgets belastet). Task-Budgets sind der erste native Mechanismus, der es dem Modell selbst ermöglicht, seine Ausgabengrenze zu verstehen. Er ist beratend, nicht erzwungen, aber das Konzept ist richtig.

Für Enterprise-Deployments mit Hunderten von Agenten ist Kosten-Governance pro Aufgabe eine Voraussetzung für Skalierung. Dass Anthropic Kostenbewusstsein direkt im Modell verankert, bestätigt, dass dies eine erstklassige Anforderung an Produktionsinfrastruktur für Agenten ist und kein nachträglicher Gedanke.

Bemerkenswerte Benchmarks

Erste Tester berichteten:

  • 13 % bessere Auflösung bei Coding-Benchmarks (Bewertung mit 93 Aufgaben)

  • 3x mehr in Produktion gelöste Aufgaben als Opus 4.6 auf Rakuten-SWE-Bench

  • 21 % weniger Fehler beim Dokumentenverständnis auf Databricks' OfficeQA Pro

  • 10 bis 15 % mehr Aufgabenerfolg bei komplexen mehrstufigen Workflows

Die Verbesserung beim Dokumentenverständnis passt zur Vision-Aufwertung. Die Coding-Verbesserungen sind bemerkenswert, weil Opus 4.6 bereits stark war. Fortschreitende Gewinne bei einem ohnehin leistungsfähigen Modell sind wichtiger als Sprünge der ersten Generation.

Was jetzt zu tun ist

Wenn Sie Agenten auf Opus 4.6 betreiben, aktualisieren Sie nicht blind. Prüfen Sie Ihre Pipelines auf die vier Breaking Changes: Thinking-Budgets, Sampling-Parameter, Tokenizer und Thinking-Anzeige. Testen Sie in Staging, bevor Sie in die Produktion gehen.

Wenn Sie Claude für neue Agenten-Deployments evaluieren, beginnen Sie mit Opus 4.7. Das Adaptive-Thinking-Modell ist sauberer als der alte Ansatz mit explizitem Budget, und allein die Vision-Verbesserungen rechtfertigen es für jeden dokumentenintensiven Workflow.

Wenn Sie Agenten auf einer Plattform betreiben, die Modellabstraktion übernimmt, fragen Sie Ihren Anbieter, wann die Unterstützung für Opus 4.7 ausgeliefert wird und ob die Breaking Changes Ihre Deployments beeinflussen. Die Antwort sollte „bereits erledigt“ oder „diese Woche“ lauten.

Die Modellebene ist der am schnellsten veränderliche Teil des Enterprise-AI-Stacks. Die Teams, die Modell-Upgrades als routinemäßige Wartung und nicht als Engineering-Projekt behandeln, sind die, die Agenten in großem Maßstab ausliefern.

Heute starten

Starten Sie mit KI-Agenten zur Automatisierung von Prozessen

Nutzen Sie jetzt unsere Plattform und beginnen Sie mit der Entwicklung von KI-Agenten für verschiedene Arten von Automatisierungen

Heute starten

Starten Sie mit KI-Agenten zur Automatisierung von Prozessen

Nutzen Sie jetzt unsere Plattform und beginnen Sie mit der Entwicklung von KI-Agenten für verschiedene Arten von Automatisierungen