Die KI-Werkstatt bietet ab sofort einen neuen Server mit zwei Nvidia H100-GPUs und Ollama-API für die Nutzung von lokalen LLMs und Embedding-Modellen. Ideal für studentische Projekte ohne externe API-Kosten.
Wir freuen uns, einen neuen leistungsstarken Server in der KI-Werkstatt vorstellen zu können:
Ausgestattet mit zwei Nvidia H100 GPUs und einer Ollama-API, steht dieser nun für alle Mitglieder*innen der HTW zur Verfügung.
Mit dieser Infrastruktur lassen sich verschiedenste aktuelle Large Language Models (z. B. DeepSeek-R1, LLaMA3, Gemma3 etc.) lokal betreiben.
Studierende, die LLMs oder Embedding-Modelle in ihren Projekten, Seminararbeiten oder Forschungsprojekten einsetzen möchten. Verschiedene Modelle können je nach gewünschtem Einsatzgebiet ausgewählt und heruntergeladen werden.
Mit der KI-Werkstatt schafft die HTW Berlin einen Ort für das gemeinsame Forschen, Lehren und Anwenden von KI-Technologie auf aktuelle Praxisprobleme. Ziel ist u.a. die Schaffung einer hochschulweiten Infrastruktur, welche die Verwendung und Weiterentwicklung aktueller KI-Algorithmen auf höchstem wissenschaftlichem Niveau ermöglicht, sowie die Entwicklung eines KI-Modulbaukastens um die KI-Lehre interdisziplinär fördern.
Kontaktiere Uns