Large Language Models und Foundation Models
Large Language Models und Foundation Models
angemeldet als:
Fakultät für Informatik und Mathematik ©
Kontakt: zpa-fk07@hm.edu
Logout

Large Language Models und Foundation Models

SWS 4
ECTS 5
Sprache(n) Deutsch (Standard)
Englisch
Lehrform SU mit Übung
Angebot nach Ankündigung
Aufwand

60 Präsenzstunden, 90 Stunden Eigenarbeit zur Vor-/Nachbereitung, Arbeit an der Modularbeit und zur Vorbereitung der Präsentation

Voraussetzungen

Maschinelles Lernen mit neuronalen Netzen, Python; Grundlagen des Natural Language Processing hilfreich

Ziele

Nach der Teilnahme an diesem Modul sind die Studierenden in der Lage,

  • grundlegende Konzepte und Funktionsweisen großer Sprach- und Foundation-Modelle in eigenen Worten zu erklären, einschließlich ihrer Architektur und Trainingsprinzipien;
  • übliche, vorgegebene Methoden zur Nutzung und einfachen Anpassung von Large Language Models auf typische Aufgaben der Sprachverarbeitung praktisch anzuwenden;
  • LLM-basierte Lösungen für praktische Anwendungen zu entwerfen und hinsichtlich Qualität, Effizienz und Eignung zu bewerten;
  • den Einsatz von LLMs kritisch zu reflektieren, insbesondere in Bezug auf Fairness, Bias, Transparenz und gesellschaftliche Auswirkungen.
Inhalt

Large Language Models (LLMs) und andere Foundation Models zählen zu den zentralen Entwicklungen der modernen Künstlichen Intelligenz. Sie verändern die Art und Weise, wie Sprache verarbeitet, Wissen generiert und KI-gestützte Anwendungen entwickelt werden. Das Modul vermittelt einen strukturierten Überblick über die Funktionsweise und Einsatzmöglichkeiten dieser Modelle, von den technischen Grundlagen über praktische Anpassungs- und Anwendungsmethoden bis hin zu Fragen der Evaluierung und des verantwortungsvollen Umgangs. Die Studierenden erwerben sowohl theoretisches Verständnis als auch praktische Kompetenzen, um LLM-basierte Systeme fundiert zu nutzen, kritisch zu beurteilen und weiterzuentwickeln.

Zu den Inhalten zählen:


  • Grundlagen großer Sprach- und Foundation-Modelle
: Architektur (Transformers), Tokenisierung, Pretraining, Skalierung und typische Anwendungsszenarien.
  • Nutzung und Anpassung von LLMs
: Prompting und In-Context Learning, Modellanpassung (Fine-Tuning, Parameter-Efficient Tuning), sowie Wissenserweiterung durch Retrieval-Augmented Generation.
  • Evaluierung und verantwortungsvoller Einsatz: 
Leistungsbewertung, Zuverlässigkeit und Grenzen von LLMs, Fairness, Bias, Transparenz und gesellschaftliche Auswirkungen.
  • Fortgeschrittene Entwicklungen und Ausblick
: Multimodale Foundation Models, aktuelle Trends und Herausforderungen im offenen und proprietären Ökosystem.
Medien und Methoden
  • Vortrag mit Folien und Beispielen
  • Programmieraufgaben in Python mit Jupyter-Notebooks
  • eigene Vorträge der Studierenden sowie Modularbeit
Literatur
  • Raschka, S.: Build a large language model (from scratch). Manning, 2025.
  • Xiao, Z., und Zhu, J.: Foundations of Large Language Models. 2025. https://arxiv.org/pdf/2501.09223
  • Kamath, U.: Large Language Models: A deep dive. Springer, 2024.
Zuordnungen Curricula
SPO Fachgruppe Code ab Semester Prüfungsleistungen

DA Version 2023

DA: Anwendungen

IF-DA-M-A12

1

IG Version 2024

ITSEC: Fachliche u. persönliche Profilbildung

IF-DA-M-A12

1

IG Version 2024

EC: Fachliche u. persönliche Profilbildung

IF-DA-M-A12

1

IG Version 2024

SWE: Fachliche u. persönliche Profilbildung

IF-DA-M-A12

1

IG Version 2024

VCML: Fachliche u. persönliche Profilbildung

IF-DA-M-A12

1

IG Version 2019

SWE: Fachliche u. persönliche Profilbildung

IF-DA-M-A12

1

IG Version 2019

EC: Fachliche u. persönliche Profilbildung

IF-DA-M-A12

1

IG Version 2019

VCML: Fachliche u. persönliche Profilbildung

IF-DA-M-A12

1