GPT ist ein spezifischer Typ eines LLMs (Großes Sprachmodell), entwickelt von OpenAI. Die Abkürzung steht für „Generative Pre-trained Transformer“.
- Generative KI bedeutet, dass diese Modelle neue Inhalte (Texte, Bilder etc.) erzeugen können, die zuvor nicht explizit einprogrammiert wurden.
- Pre-trained heißt, sie wurden mit riesigen Mengen an Text- und Bilddaten vortrainiert und haben daraus gelernt, Muster, Grammatik und Faktenwissen zu verstehen.
- Transformer-Architektur bezieht sich auf eine spezielle Art von neuronalem Netzwerk-Architektur, die besonders gut darin ist, Zusammenhänge und Bedeutungen in sequentiellen Daten wie Text zu erfassen. GPT-Modelle sind bekannt für ihre Fähigkeit, menschenähnliche Texte zu schreiben, Fragen zu beantworten, Code zu generieren und vieles mehr.