Generative Modelle wie Transformers [1], Generative Adversarial Networks (GANs) [2] und Diffusionsmodelle [3] sind in den letzten Jahren immer mehr ins Zentrum des Interesses der akademischen und nicht-akademischen Welt gerückt. Algorithmen wie ChatGPT, Stable Diffusion [3] und DALL-E [4] sind mittlerweile in der Lage, nahezu photorealistische Bilder und glaubhafter Text zu generieren. Nichtsdestotrotz können generative Modelle "halluzienieren", das heißt, sie generieren z.B. falsche Fakten oder unmögliche Artefakten. In dieser Masterarbeit geht es darum, diesen Phänomen zu untersuchen und Lösungshypothesen zu formulieren.
Ihr Profil:
- Gute Kenntnisse in Python und Tensorflow/Pytorch
- Gute Kenntnisse von ML-Methoden
- Gute Kenntnisse von Stochastik
- Erfahrung mit generativer KI
- Engagement, Selbständigkeit und Gute Laune
- Keine Angst vor Herausforderungen
Bei Interesse wenden Sie sich an Luca Sacchetto
[1] Goodfellow, Ian, et al. "Generative adversarial nets." Advances in neural information processing systems 27 (2014).
[2] Vaswani, Ashish, et al. "Attention is all you need." Advances in neural information processing systems 30 (2017).
[3] Wang, Ting-Chun, et al. "High-resolution image synthesis and semantic manipulation with conditional gans." Proceedings of the IEEE conference on computer vision and pattern recognition. 2018.
[4] Ramesh, Aditya, et al. "Zero-shot text-to-image generation." International Conference on Machine Learning. PMLR, 2021.
[5] Brown, Tom, et al. "Language models are few-shot learners." Advances in neural information processing systems 33 (2020): 1877-1901.