Skip to content

Talks & Outreach

Below is a selection of talks, podcasts, and news articles from or about us (mostly in German) that may be of interest to you. Click here for news about our latest activities. If you have any questions or comments, we look forward to hearing from you!


March 2023

Vortrag: Der KI-Chatbot ChatGPT - Eine Herausforderung für die Hochschule

Anfang März 2023 fand an der FH Aachen eine hochschulweite Informationsveranstaltung zu ChatGPT und seinen möglichen Auswirkungen auf die Hochschullehre statt. Der Vortrag erläutert, wie große Sprachmodelle (large language models) wie ChatGPT trainiert werden, welche Auswirkungen solche Systeme auf die Hochschullehre haben und wie zukünftige Entwicklungen aussehen könnten.

Vortrag: Der KI-Chatbot ChatGPT - Eine Herausforderung für die Hochschulen

Dieser Vortrag wurde im Rahmen der didaktischen Tafelrunde der Hochschule gehalten und zuerst auf dem ZHQ-Blog der FH Aachen veröffentlicht.

February 2023

Podcast-Interview: ChatGPT und die Hochschullehre

In diesem Interview in einem Podcast unserer Hochschule diskutieren wir die möglichen Auswirkungen von Systemen wie ChatGPT auf die Hochschullehre.

Podcast-Interview: ChatGPT und die Hochschullehre

Dieses Podcast-Interview wurde als Teil des ZHQ-Podcasts der FH Aachen geführt und wurde zuerst ebenda veröffentlicht.

Artikel: ChatGPT und die Hochschulen

Dieser Artikel, der Anfang 2023 in der Zeitschrift Die Neue Hochschule veröffentlicht wurde, stellt die Entstehung großer Sprachmodelle wie ChatGPT vor, diskutiert ihre Risiken und Chancen und erörtert mögliche Auswirkungen auf sich verändernde Kompetenzen, Lernziele und Prüfungsformen an Hochschulen.

Link zum Artikel


🎉 Our team's research on tackling data scarcity in sleep medical settings has been selected for both an oral presentation and a poster at ICLR 2024. Niklas will present his findings on Pretraining sleep staging models without patient data—opening new doors for deep learning in settings where time series data is limited. 🚀

🤓 Check out our newly published paper on finetuning large language models (LLMs) to decode political conversations in German parliamentary debates. 'Speaker Attribution in German Parliamentary Debates with QLoRA-adapted Large Language Models' offers a novel perspective on automated speaker attribution, facilitating the analysis of political interactions.

We congratulate Nils Wallenfang from the Fraunhofer Institute for Production Technology, who has successfully defended his Master's thesis. 🥂

🎓 We celebrate Tobias Bornheim who successfully defended his Master thesis on Prompt Engineering vs QLoRA Fine-Tuning of Large Language Models! We are grateful for Tobias' exceptional dedication, which has been instrumental in achieving our three top placings in international NLP competitions - a testament to his invaluable contribution to our team. 🙏

We gratulate Luke Dreßen (Institute for Advanced Simulation, Forschungszentrum Jülich), Lukas Ihmer (Institute of Energy and Climate Research, Forschungszentrum Jülich), and Alexander Vollmer (CAE GmbH) who successfully defended their theses. 🥂

🏆 Our team won the 2nd place in the international competition GermEval 2023 on speaker attribution in German parliamentary debates! Congratulation to all team members! 👏 Our approach is based on LoRA-training of large language models (Llama 2 70B). Find out more.

🎉 Congratulations, Noah Hartwig, on successfully completing your bachelor colloquium on Evaluation of the mathematical understanding of modern large language models in English and German! We are grateful for your insights and your hard work! 🙏

We celebrate Tim Wende for defending his Bachelor thesis on automated sleep spindle analysis with deep learning in our group! 🧑‍🎓

We gratulate Steffen Carstensen (CANCOM), Niklas Dobberstein (Fraunhofer SCAI), and Carina Gawehn (LabCognition GmbH) who successfully defended their bachelor theses. 🥂

🎉 We celebrate the first release of SomnoBot, our cutting-edge AI tool to automate sleep scoring with expert-level performance. 🍾 Check it out!