A.I.@home
Künstliche Intelligenz ist in aller Munde, alle springen auf den A.I.-Zug auf und überbieten sich mit den tollsten Large Language Models. Alle in dem Medien gehypten Sprachmodelle nutzen die Herstellercloud und benötigen ein entsprechendes Account. Will man etwas mehr machen, benötigt man meistens sogar ein kostenpflichtiges Abo. Die Frage ist, kann man sowas auch zuhause betreiben? Nun, ich habe natürlich kein Rechenzentrum im Keller, und auch meine Resourcen was Rechenpower angeht sind eher gering.
Trotzdem starte ich einen Versuch ein LLM zuhause zum Funktionieren zu bringen. Bei meiner Lösung versuche ich wieder auf Docker-Container zu setzen. Mal schauen was geht…