Ollama
Ollama
Ollama ist ein Open-Source-Tool, das es ermöglicht, große Sprachmodelle (LLMs) lokal auf einem Computer auszuführen. Es ist eine Alternative zu Cloud-basierten LLMs wie GPT-3, die von Unternehmen wie OpenAI angeboten werden. Ollama ermöglicht es, LLMs auf einem Computer auszuführen, ohne dass eine Internetverbindung erforderlich ist. Dies bedeutet, dass Benutzer die volle Kontrolle über ihre Daten haben und keine Bedenken hinsichtlich Datenschutz und Sicherheit haben müssen.
Installation
Geben Sie den folgenden Befehl in die Konsole ein, um Ollama zu installieren:
curl -fsSL https://ollama.com/install.sh | sh
Geben Sie den folgenden Befehl ein, um Ollama zu starten Laden Sie das Modell herunter:
ollama pull llama3.2:latest
open-webui
open-webui ist ein Tool, das es ermöglicht, die Benutzeroberfläche von Ollama im Webbrowser zu öffnen. Geben Sie den folgenden Befehl in die Konsole ein,
mkdir /testseite
cd /testseite
python3 -m venv .venv
source .venv/bin/activate
pip install open-webui
Geben Sie den folgenden Befehl ein, um die Benutzeroberfläche von Ollama im Webbrowser zu öffnen:
/testseite/.venv/bin/open-webui serve
str + c Programm beenden
systemctl Datei erstellen
Erstellen Sie eine Datei mit dem Namen ollama.service in /etc/systemd/system/ mit dem folgenden Inhalt:
sudo nano /etc/systemd/system/open-webui.service
Fügen Sie den folgenden Inhalt in die Datei ein:
[Unit]
Description=Open WebUI
After=network.target
[Service]
Type=simple
User=root
WorkingDirectory=/testseite
ExecStart=/testseite/.venv/bin/open-webui serve
Restart=on-failure
[Install]
WantedBy=multi-user.target
Geben Sie den folgenden Befehl ein, um den Dienst zu starten:
systemctl start open-webui
Geben Sie den folgenden Befehl ein, um den Dienst zu aktivieren:
systemctl enable open-webui
Geben Sie den folgenden Befehl ein, um den Status des Dienstes zu überprüfen:
systemctl status open-webui
Certbot
Geben Sie den folgenden Befehl in die Konsole ein, um Certbot zu installieren:
sudo systemctl stop nginx
sudo certbot certonly --standalone -d ai.ahrensburg.city
nginx Konfiguration
Erstellen Sie eine Konfigurationsdatei mit dem Namen ollama in /etc/nginx/sites-available/ mit dem folgenden Inhalt:
sudo nano /etc/nginx/conf.d/ollama.conf
Fügen Sie den folgenden Inhalt in die Datei ein:
server {
listen 443 ssl http2;
listen [::]:443 ssl http2;
server_name ai.ahrensburg.city;
ssl_certificate /etc/letsencrypt/live/ai.ahrensburg.city/fullchain.pem;
ssl_certificate_key /etc/letsencrypt/live/ai.ahrensburg.city/privkey.pem;
location / {
proxy_pass http://localhost:8080;
proxy_set_header Connection $http_connection;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
}
}
Geben Sie den folgenden Befehl ein, um den nginx-Dienst neu zu starten:
sudo systemctl restart nginx