News

  • Teen Sicherheitsregeln als Prompts für sichere KI Apps

    Teen Sicherheitsregeln als Prompts für sichere KI Apps

    OpenAI stellt neue Jugendschutz Richtlinien bereit, die als sofort nutzbare Prompt Vorlagen formuliert sind. Ziel ist, dass Entwickler diese Policies direkt mit dem offenen Safety Modell gpt-oss-safeguard als Klassifikator einsetzen können, um Teen spezifische Risiken konsistent zu erkennen und abzufedern. Übersicht: Warum Teen Kontext Regeln verschiebt Was an Prompt Policies praktisch neu ist So wird…

  • So schützt OpenAI Sora vor Missbrauch

    So schützt OpenAI Sora vor Missbrauch

    Stand 23. März 2026 setzt Sora laut OpenAI auf ein Sicherheitsprinzip mit zwei Seiten: Inhalte werden technisch als KI erstellt markiert, und riskante Nutzungen rund um Personen, Jugendkonten und problematische Themen werden durch Regeln, Moderation und Nutzerkontrollen begrenzt. Wer Sora verantwortungsvoll nutzt, arbeitet mit diesen Leitplanken, statt sie zu umgehen. Übersicht: Wie Herkunftssignale Fälschungen entwerten…

  • OpenAI kauft Astral und stärkt Python Tools

    OpenAI kauft Astral und stärkt Python Tools

    OpenAI hat am 19. März 2026 angekündigt, das Python-Tooling-Unternehmen Astral übernehmen zu wollen. Der Kern der Idee ist nicht ein neues Modell, sondern bessere Werkzeuge im Alltag, damit Codex direkt in den etablierten Python-Workflow greifen kann, von Abhängigkeiten bis Qualitätschecks. Übersicht: Was sich für Python-Teams wirklich ändert Warum Codex vom Codegenerator zum Workflow-Agenten wird Welche…

  • Japan setzt auf strenge Schutzregeln für Teenager KI

    Japan setzt auf strenge Schutzregeln für Teenager KI

    Laut OpenAI Japan wurde am 17. März 2026 ein Japan Teen Safety Blueprint vorgestellt, ein Rahmen, der die Nutzung generativer KI für Jugendliche gezielt absichern soll. Im Kern geht es um bessere Alterserkennung, strengere Unter-18-Regeln, mehr Elternwerkzeuge und ein Design, das Wohlbefinden nicht als Nebenbedingung behandelt. Übersicht: Welche Änderungen Jugendliche in Japan tatsächlich spüren Welche…

  • Wie Rakuten mit Codex Ausfälle doppelt so schnell behebt

    Wie Rakuten mit Codex Ausfälle doppelt so schnell behebt

    Rakuten setzt OpenAI Codex als Coding-Agent an drei Engstellen ein, Incident-Response, CI/CD-Prüfungen und die Umsetzung unklarer Spezifikationen. Das Unternehmen berichtet über rund 50% weniger Mean-Time-to-Recovery (MTTR), schnelleres, konsistenteres Code-Review und Projekte, die statt eines Quartals in wenigen Wochen lieferbar werden. Übersicht: Warum ausgerechnet jetzt Agenten-Workflows greifen Wie aus Alarmen schneller Fixes werden Wie Tempo steigt,…

  • Wie die Responses API Agenten produktionsreif macht

    Wie die Responses API Agenten produktionsreif macht

    Agenten scheitern in der Praxis selten an „Intelligenz“, sondern an Ausführung: Dateien ablegen, Daten nachladen, Ergebnisse reproduzierbar erzeugen, ohne dass Logs den Kontext sprengen oder das Netzwerk zum Risiko wird. OpenAI beschreibt dafür eine Computer-Umgebung rund um die Responses API, in der Modelle Schritte planen, Tools auslösen und in einem isolierten Workspace verlässlich Artefakte wie…

  • So werden KI Agenten gegen Prompt Injection robuster

    So werden KI Agenten gegen Prompt Injection robuster

    Prompt Injection ist längst kein simples „Ignore all instructions“ mehr, sondern wirkt in der Praxis oft wie Social Engineering, also wie gezielte Manipulation durch scheinbar plausiblen Kontext. Wer KI Agenten absichern will, braucht deshalb nicht nur Erkennung, sondern Systemgrenzen, die den Schaden begrenzen, selbst wenn ein Angriff teilweise durchrutscht. Genau diesen Perspektivwechsel beschreibt das Unternehmen…

  • IH Challenge zeigt wie Modelle Regeln richtig priorisieren

    IH Challenge zeigt wie Modelle Regeln richtig priorisieren

    Am 10. März 2026 hat OpenAI mit IH-Challenge ein Trainingsset vorgestellt, das Sprachmodelle konsequenter dazu bringt, Anweisungen nach Vertrauensstufe zu sortieren. Das soll Konfliktfälle sauber lösen, Sicherheitsvorgaben im Systemprompt zuverlässiger durchsetzen und Prompt-Injection über Tool-Ausgaben spürbar erschweren. Übersicht: Warum falsche Prioritäten schnell zur Sicherheitslücke werden Welche Trainingsfallen Hierarchie Verhalten kaputtmachen Wodurch IH-Challenge echte Signale statt…

  • ChatGPT zeigt Mathe und Naturwissenschaften jetzt interaktiv

    ChatGPT zeigt Mathe und Naturwissenschaften jetzt interaktiv

    Seit dem 10. März 2026 kann ChatGPT Mathe und Naturwissenschaften nicht nur erklären, sondern als interaktive Visualisierung zeigen, inklusive variabler Parameter und Live-Effekte in Diagrammen. Laut OpenAI startet das mit über 70 Kernkonzepten und ist weltweit für alle Tarife verfügbar, sobald ein Konto genutzt wird. Details stehen in der Ankündigung bei OpenAI. Übersicht: Wer die…

  • OpenAI übernimmt Promptfoo für sichere KI Agenten

    OpenAI übernimmt Promptfoo für sichere KI Agenten

    OpenAI hat am 9. März 2026 angekündigt, Promptfoo zu übernehmen und die Sicherheits und Evaluationsfunktionen nach Abschluss direkt in OpenAI Frontier zu integrieren. Ziel ist, dass Unternehmen KI Agenten vor dem Rollout systematisch auf Angriffe, Datenabfluss und Regelverstöße testen können und dafür nachvollziehbare Prüfspuren für Governance und Compliance erhalten. Laut OpenAI soll das Open Source…

  • Codex Security startet als Security Agent im Preview

    Codex Security startet als Security Agent im Preview

    Codex Security ist ein KI-gestützter Application-Security-Agent, der ein Softwareprojekt kontextbasiert analysiert, Schwachstellen priorisiert, möglichst validiert und konkrete Fixes vorschlägt. In der Research Preview wird der Zugang über Codex Web für ChatGPT Enterprise, Business und Edu ausgerollt, im ersten Monat mit kostenloser Nutzung. Der Kernnutzen: weniger Fehlalarme, weniger Triage-Arbeit und schnelleres Shipping von sicherem Code, trotz…

  • So bauten Investoren eine KI Forschungsmaschine fürs Investieren

    So bauten Investoren eine KI Forschungsmaschine fürs Investieren

    Ein globales Investmenthaus hat seine Research-Arbeit neu organisiert, mit einer zentralen KI-Plattform, die wie ein Analyst denken, Quellen finden und Aufgaben ausführen kann. Entscheidend waren harte Modelltests vor dem Rollout, Agenten-Workflows mit Werkzeugzugriff und klare Compliance-Leitplanken. Das Ergebnis: deutlich schnelleres Research bei nachvollziehbaren, prüfbaren Outputs, genutzt von rund 95 Prozent der Investmentteams. Übersicht: Wo traditionelle…

  • Was die GPT 5.4 Thinking System Card zeigt

    Was die GPT 5.4 Thinking System Card zeigt

    Worum es bei GPT 5.4 Thinking geht GPT 5.4 Thinking ist laut OpenAI das neueste Reasoning Modell innerhalb der GPT 5 Thinking Linie. Der Kernpunkt der System Card: Die Sicherheitsarchitektur folgt dem bisherigen Ansatz der Serie, erweitert aber erstmals ein allgemeines Modell um spezielle Schutzmaßnahmen für hohe Fähigkeiten im Bereich Cybersicherheit. Wie das Modell im…

  • Warum Modelle ihr Denken schlecht verschleiern können

    Warum Modelle ihr Denken schlecht verschleiern können

    Aktuelle Reasoning-Modelle können ihre eigenen Gedankenspuren meist nicht gezielt so formen, dass sie für Überwachungssysteme schwerer auswertbar werden. Genau diese Schwäche ist aus Safety-Sicht beruhigend, weil sie Chain-of-thought Monitoring heute als Schutzschicht vergleichsweise verlässlich macht. Was an der Schwäche der Modelle beruhigt Wie sich Denkspuren überhaupt steuern lassen sollen Welche Tests die Studie wirklich nutzt…

  • KI in der Bildung schafft Chancen durch echte Kompetenz

    KI in der Bildung schafft Chancen durch echte Kompetenz

    Damit KI in der Bildung tatsächlich Chancen schafft, müssen Hochschulen und Schulträger den Sprung von gelegentlicher Tool-Nutzung zu belastbarer Anwendungskompetenz organisieren, mit realitätsnahen Aufgaben, strukturiertem Zugang und messbaren Lernzielen. Laut OpenAI klafft bei Studierenden eine große Lücke zwischen dem, was KI kann, und dem, was im Alltag genutzt wird, diese Lücke lässt sich durch institutionelle…