KI lokal nutzen

DeepSeek

DeepSeek gilt als ähnlich leistungsfähig wie ChatGPT. Es kommt zwar aus China, bei einer lokalen Installation spielt das aber keine Rolle. Allerdings benötigt das vollständige Modell mit 671 Milliarden Parametern über 400 GB Speicherplatz. Es bieten sich stattdessen abgespeckte Modelle mit eineinhalb, sieben oder acht Milliarden Parametern an. Die Installation erfolgt in gewohnter Manier mit: ollama pull deepseek-r1:1.5b
Auch aufeinander aufbauende Fragen sind möglich: Wenn Sie nach dem berühmtesten Bild von van Gogh fragen, erhalten Sie Starry night samt Entstehungsgeschichte als Antwort. Wenn Sie danach describe it als Prompt eingeben, weiss DeepSeek, was Sie meinen, und beschreibt Starry night.
Um die installierten Modelle zu entfernen, löschen Sie einfach den Inhalt des Ordners .ollama\models im Benutzerverzeichnis unter C:\Benutzer\[Ihr Benutzername] oder C:\Users\[Ihr Benutzername]. Die Modelle von LM Studio liegen dort unter dem Pfad .cache\lm-studio\models.



Kommentare
Avatar
netpilots
vor 3 Tagen
KI lebt von den Informationen alles Benutzer. Wozu lokal nutzen und Informationen für den Lernprozess verweigern. Man kann nicht nur nehmen, etwas dazu geben ist angebracht.

Avatar
Klaus Zellweger
vor 2 Tagen
KI lebt von den Informationen alles Benutzer. Wozu lokal nutzen und Informationen für den Lernprozess verweigern. Man kann nicht nur nehmen, etwas dazu geben ist angebracht. Das ist nicht von der Hand zu weisen. Datenschutz ist nicht binär, nicht nur Schwarz und Weiss. Jeder von uns speichert massenhaft Informationen, die nicht wirklich vertraulich sind. (M)eine Patientenakte würde ich keiner K.I. zum Frass vorwerfen. Andererseits habe ich vermutlich keine einzige E-Mail, die so vertraulich ist, dass man sie nicht anonymisiert einer KI zum Training überlassen könnte. Es ist, wie du schreibst: Wir alle werden enorm von KI profitieren! Deshalb sollte es bis zu einem gewissen Grad als “Bürgerpflicht” angesehen werden, mit den eigenen Daten etwas zum Training beizutragen. Wenn das anonymisiert passiert, habe ich nichts dagegen einzuwenden. Dann hören die KIs vielleicht auch irgendwann auf zu halluzinieren.