Advanced Account Security ist eine optionale Sicherheitsstufe für ChatGPT-Logins, die Kontoübernahmen gezielt erschwert, indem sie Passwörter praktisch aus dem Prozess entfernt und Recovery sowie Sessions deutlich strenger macht. Der Schutz gilt automatisch auch für Codex, wenn es über denselben Login genutzt wird. Der Haken ist gewollt: Wer die Funktion aktiviert, muss die eigenen Wiederherstellungs-Schlüssel sauber verwalten, weil ein verlorener Zugriff nicht mehr „per Support“ gerettet werden kann.
Übersicht:
Was sich durch Advanced Account Security ändert
Mit Advanced Account Security bündelt OpenAI mehrere „harte“ Kontoschutz-Maßnahmen in einer einzigen Einstellung, gedacht für Menschen mit erhöhtem Angriffsrisiko und für alle, die das Maximum an Kontosicherheit wollen. Der Fokus liegt auf dem typischen Muster bei Account-Takeovers: Angreifer kommen nicht nur über Passwörter rein, sondern auch über schwache Wiederherstellung, lange laufende Sessions und unklare Geräteübersichten.
Aktiviert wird die Option in den Sicherheits-Einstellungen von ChatGPT im Web. Ab diesem Moment gelten die Regeln für den Login, der sowohl ChatGPT als auch Codex freischaltet, weil beide Dienste an derselben Identität hängen.
Welche Schutzbausteine aktiviert werden
Das Paket lässt sich als Drei-Tore-Modell lesen: Wer ein Konto übernehmen will, braucht einen Einstieg, einen Rettungsweg und oft eine bestehende Session. Advanced Account Security macht alle drei Wege enger, statt nur an einer Stelle nachzubessern.
- Phishing-resistenter Login: Passkeys oder physische Security-Keys werden zur Pflicht, der klassische Passwort-Login wird abgeschaltet. Das Ziel ist, wiederverwendbare Zugangsdaten zu vermeiden, die sich per Phishing abgreifen lassen. Hintergrund: Passkeys basieren auf FIDO-Standards, im Web typischerweise umgesetzt über WebAuthn, und sind darauf ausgelegt, auf Fake-Login-Seiten nicht einfach „mitzuspielen“.
- Recovery nur über starke Methoden: E-Mail- und SMS-Wiederherstellung werden deaktiviert, stattdessen zählen nur Backup-Passkeys, Security-Keys und Recovery-Keys. Dadurch wird ein häufiger Umweg blockiert: Wenn E-Mail-Postfach oder SIM-Karte kompromittiert sind, soll das nicht automatisch den KI-Account nachziehen.
- Weniger Risiko durch kürzere Sessions: Sitzungen laufen kürzer, um die Zeit zu begrenzen, in der ein bereits offener Login missbraucht werden kann. Zusätzlich gibt es Login-Hinweise und eine klarere Übersicht, auf welchen Geräten gerade aktive Sessions existieren, inklusive der Möglichkeit, sie gezielt zu beenden.
- Automatischer Trainings-Ausschluss: Für Accounts mit Advanced Account Security wird die Nutzung von Gesprächen für das Modelltraining automatisch ausgeschaltet. Das ist vor allem dann relevant, wenn der Account regelmäßig mit sensiblen beruflichen oder persönlichen Inhalten gefüttert wird.
Wichtig für die Praxis: Weil die Wiederherstellung absichtlich eingeschränkt ist, kann OpenAI Support bei der Konto-Rettung für aktivierte Accounts nicht einspringen. Wer die Einstellung einschaltet, muss also mindestens einen belastbaren Backup-Pfad besitzen und testen, ob er funktioniert.
Warum Yubico dabei eine Rolle spielt
Physische Security-Keys gelten als besonders robuste Option gegen Phishing, weil sie den Login kryptografisch an die echte Website binden, statt nur einen Code zu liefern, der weitergereicht werden kann. OpenAI verbindet Advanced Account Security deshalb mit einem Hardware-Angebot von Yubico, um den Einstieg für Risikogruppen zu erleichtern.
Konkret geht es um ein Bundle mit zwei Einsatzzwecken: ein Key, der dauerhaft im Laptop bleiben kann, plus ein zweiter als Backup, der auch mobil nutzbar ist. Details zum Angebot stehen bei YubiKey OpenAI Bundle. Technisch ist niemand auf dieses Bundle festgenagelt, genutzt werden können auch andere FIDO-kompatible Security-Keys oder softwarebasierte Passkeys, passend erklärt im Überblick der FIDO Alliance zu Passkeys.
Was ab 1. Juni 2026 für Trusted Access gilt
Im Programm Trusted Access for Cyber erhöht OpenAI die Hürden für Kontosicherheit, weil dort besonders leistungsfähige und permissivere Modelle für legitime defensive Arbeit verfügbar sein können. Für einzelne verifizierte Nutzer, die auf die cyberstärksten und permissiveren Modelle zugreifen, wird Advanced Account Security laut OpenAI ab dem 1. Juni 2026 verpflichtend.
Organisationen können alternativ nachweisen, dass sie in ihrem Single-Sign-on bereits phishing-resistente Authentifizierung durchsetzen. Kontext zum Programm und zur Skalierung liefert Trusted Access for the next era of cyber defense. Die Einordnung dahinter passt in OpenAIs breiteren Ansatz, Schutzmaßnahmen parallel zur steigenden Modellfähigkeit hochzuziehen, beschrieben im Action-Plan Cybersecurity in the Intelligence Age.
Praxisbeispiel, Entscheidungsregel und Marktmodell
Praxisbeispiel
Ein Recherche-Team nutzt ChatGPT, um Interviewnotizen zu strukturieren, Themenpläne zu bauen und interne Hinweise zu diskutieren. Das Risiko ist weniger „Hacker will KI nutzen“, sondern „Hacker will an den Verlauf“, weil dort Namen, Zusammenhänge und Arbeitsstände landen. In diesem Szenario bringt Advanced Account Security einen messbaren Effekt, weil ein abgefischtes Passwort nicht mehr reicht, E-Mail-Reset nicht zieht und gestohlene Sessions schneller auslaufen.
Klare Entscheidungsregel
- Advanced Account Security aktivieren, wenn der Account beruflich kritische Inhalte enthält, wenn mit Dritten geteilte Geräte genutzt werden, oder wenn gezielte Angriffe plausibel sind, etwa bei Journalismus, Politik, Forschung, Aktivismus oder Security-Arbeit.
- Mindestens Passkeys nutzen, wenn das volle Paket zu restriktiv wirkt, aber Passwort-Login ein unnötiges Risiko ist. Eine praxisnahe Anleitung bietet Passkeys to Secure Your OpenAI Account.
Mini-Modell zur Markteinordnung
Die Richtung am Markt ist eindeutig: Identität wird zur Infrastruktur. Wer KI in Workflows klemmt, macht den Account zum Generalschlüssel für Dokumente, Tools und Teamprozesse. Advanced Account Security ist ein Signal, dass sich Schutzstandards von „Passwort plus Zusatzcode“ hin zu „phishing-resistenter Zugang plus strenge Recovery plus Session-Kontrolle“ verschieben, besonders dort, wo KI-Systeme mit sensiblen Kontexten gefüttert werden.

