Author: Simone

  • Codex Security startet als Security Agent im Preview

    Codex Security startet als Security Agent im Preview

    Codex Security ist ein KI-gestützter Application-Security-Agent, der ein Softwareprojekt kontextbasiert analysiert, Schwachstellen priorisiert, möglichst validiert und konkrete Fixes vorschlägt. In der Research Preview wird der Zugang über Codex Web für ChatGPT Enterprise, Business und Edu ausgerollt, im ersten Monat mit kostenloser Nutzung. Der Kernnutzen: weniger Fehlalarme, weniger Triage-Arbeit und schnelleres Shipping von sicherem Code, trotz…

  • So bauten Investoren eine KI Forschungsmaschine fürs Investieren

    So bauten Investoren eine KI Forschungsmaschine fürs Investieren

    Ein globales Investmenthaus hat seine Research-Arbeit neu organisiert, mit einer zentralen KI-Plattform, die wie ein Analyst denken, Quellen finden und Aufgaben ausführen kann. Entscheidend waren harte Modelltests vor dem Rollout, Agenten-Workflows mit Werkzeugzugriff und klare Compliance-Leitplanken. Das Ergebnis: deutlich schnelleres Research bei nachvollziehbaren, prüfbaren Outputs, genutzt von rund 95 Prozent der Investmentteams. Übersicht: Wo traditionelle…

  • Update auf GPT 5.4

    Update auf GPT 5.4

    GPT-5.4 ist laut OpenAI ein Frontier-Modell, das gezielt auf professionelle Wissensarbeit und agentische Workflows optimiert wurde, verfügbar in ChatGPT, der API und Codex. Im Kern kombiniert es stärkere Planung und Recherche, sehr gute Code-Fähigkeiten, native Computerbedienung und deutlich bessere Token-Effizienz, damit komplexe Aufgaben mit weniger Nachfragen und geringeren Kosten durchlaufen. Zusätzlich gibt es GPT-5.4 Pro…

  • Was die GPT 5.4 Thinking System Card zeigt

    Was die GPT 5.4 Thinking System Card zeigt

    Worum es bei GPT 5.4 Thinking geht GPT 5.4 Thinking ist laut OpenAI das neueste Reasoning Modell innerhalb der GPT 5 Thinking Linie. Der Kernpunkt der System Card: Die Sicherheitsarchitektur folgt dem bisherigen Ansatz der Serie, erweitert aber erstmals ein allgemeines Modell um spezielle Schutzmaßnahmen für hohe Fähigkeiten im Bereich Cybersicherheit. Wie das Modell im…

  • Warum Modelle ihr Denken schlecht verschleiern können

    Warum Modelle ihr Denken schlecht verschleiern können

    Aktuelle Reasoning-Modelle können ihre eigenen Gedankenspuren meist nicht gezielt so formen, dass sie für Überwachungssysteme schwerer auswertbar werden. Genau diese Schwäche ist aus Safety-Sicht beruhigend, weil sie Chain-of-thought Monitoring heute als Schutzschicht vergleichsweise verlässlich macht. Was an der Schwäche der Modelle beruhigt Wie sich Denkspuren überhaupt steuern lassen sollen Welche Tests die Studie wirklich nutzt…

  • KI in der Bildung schafft Chancen durch echte Kompetenz

    KI in der Bildung schafft Chancen durch echte Kompetenz

    Damit KI in der Bildung tatsächlich Chancen schafft, müssen Hochschulen und Schulträger den Sprung von gelegentlicher Tool-Nutzung zu belastbarer Anwendungskompetenz organisieren, mit realitätsnahen Aufgaben, strukturiertem Zugang und messbaren Lernzielen. Laut OpenAI klafft bei Studierenden eine große Lücke zwischen dem, was KI kann, und dem, was im Alltag genutzt wird, diese Lücke lässt sich durch institutionelle…

  • OpenAI und Microsoft bekräftigen ihre Partnerschaft für 2026

    OpenAI und Microsoft bekräftigen ihre Partnerschaft für 2026

    Was sich nicht aendert IP und Lizenzrechte Kommerzielle Logik und Revenue Share Azure Exklusivitaet fuer stateless APIs Hosting von Produkten und Partneraufrufen AGI Definition und Entscheidungsprozess Zusaetzliche Rechenkapazitaet und Stargate Praxisbeispiel und Entscheidungsregel Markteinordnung als Drei Ebenen Modell Kernaussage des Joint Statements Das Unternehmen und Microsoft stellen klar, dass neue Finanzierungsrunden und zusaetzliche Partner von…