Unterstützung für Remote-MCP
Die Responses API bietet jetzt nativen Support für entfernte Model Context Protocol (MCP) Server, sodass Entwickler mit wenigen Zeilen Code beliebige MCP-Tools wie Shopify, Twilio oder Stripe anbinden können. Dies standardisiert die Kontextbereitstellung für GPT-4o, GPT-4.1 und o-Series Modelle und erleichtert den Zugriff auf externe Datenquellen.
Bildgenerierung als Tool
Mit dem neuen gpt-image-1 Modell lässt sich Bildgenerierung direkt in der Responses API nutzen. Entwickler sehen Echtzeit-Streaming-Vorschauen während der Erstellung und können mehrstufige Anpassungen per Prompt durchführen, um Bilder schrittweise zu verfeinern – ideal für interaktive Agentenanwendungen. Die nahtlose Integration reduziert den Entwicklungsaufwand und liefert hochwertige visuelle Ergebnisse in Sekundenschnelle.
Code Interpreter verfügbar
Der Code Interpreter steht jetzt als eigenständiges Tool zur Verfügung und erweitert die Responses API um leistungsstarke Funktionalitäten für Datenanalyse, komplexe Mathematikaufgaben und Bildverarbeitung. Modelle wie o3 und o4-mini können den Interpreter in ihrem Chain-of-Thought verwenden, was die Leistungsfähigkeit in Benchmark-Tests weiter steigert.
Erweiterte Dateisuche
Die integrierte Dateisuche ermöglicht das gezielte Einbinden von Dokumentinhalten in den Modellkontext. Neu hinzugekommen ist die Unterstützung für mehrere Vektorspeicher und Attribut-Filter, mit denen Entwickler relevante Datenbasisschnipsel anhand von Array-Parametern extrahieren können.
Hintergrundmodus eingeführt
Für langlaufende Tasks wie umfangreiche Recherchen oder Codex-ähnliche Workflows bietet die Responses API nun einen Hintergrundmodus. Dieser startet Aufgaben asynchron, verhindert Timeouts und erlaubt wahlweise Polling oder Event-Streaming, um den aktuellen Stand der Verarbeitung abzurufen.
Begründungszusammenfassungen
Die API generiert auf Wunsch knappe, natürliche Sprachzusammenfassungen des internen Chain-of-Thought. Diese Funktion erleichtert Debugging, Auditierung und die Optimierung von User-Erlebnissen, da Entwickler Einblick in die Modellüberlegungen ohne zusätzliche Kosten erhalten. Dadurch lassen sich Modelle schneller verbessern und potenzielle Schwachstellen frühzeitig erkennen.
Verschlüsselte Verarbeitungsitems
Kunden mit Zero Data Retention können reasoning items verschlüsselt wiederverwenden, ohne dass Inhalte auf OpenAI-Servern gespeichert werden. Dies steigert Intelligenz, verringert Token-Verbrauch und erhöht Cache-Trefferquoten für Modelle wie o3 und o4-mini. Unternehmen profitieren dadurch von verbesserter Datenschutzkonformität und haben volle Kontrolle über ihre sensiblen Informationen.
Preise und Verfügbarkeit
Alle neuen Tools und Features sind ab sofort in der Responses API für GPT-4o, GPT-4.1 und die o-Series Modelle verfügbar. Die Preise für Bild-, Code-Interpreter- und Dateisuche bleiben unverändert, zusätzliche MCP-Serveraufrufe verursachen nur Token-Kosten für die Ausgabe. Kunden können sofort von den Erweiterungen profitieren und ihre Agenten-Workflows direkt optimieren.
Kompatibilität mit älteren Modellen
Entwickler haben weiterhin die Möglichkeit, ältere Modelle wie gpt-3 deutsch in der Responses API zu integrieren, um bestehende Anwendungen nahtlos zu migrieren und Kosteneffizienz bei weniger anspruchsvollen Aufgaben zu erzielen. Dadurch können Unternehmen flexibel auf verschiedene Anwendungsfälle reagieren und ihre Infrastruktur schrittweise modernisieren.