Also, ich spreche immer noch nicht gerne von „KI“/“Künstlicher Intelligenz, denn das was wir so bezeichnen sind schlichtweg große Sprachmodelle/Large Language Model (LLM), intelligent ist das per se erstmal gar nicht. Aber das Thema heute ist ohnehin ein anders: man kann diese LLMs nämlich auch lokal laufen lassen und hat dann erstmal vor allem keine Datenschutz-Probleme.
Wie das geht, beschreibt das eingebundene c’t 3003 Video unten, zusammengefasst: Kauft Euch Macs mit möglichst viel Arbeitsspeicher, darauf LM Studio installiert (+ ggf. qwen 4.3.x) und schon kann es losgehen. Hätte ich gerade 3k-5k Spielgeld (eher 5k) übrig, würde ich das auch sehr gerne testen wollen…