2025-01-03 12:18:17 +00:00
2025-01-03 12:18:17 +00:00
2025-01-03 12:18:17 +00:00

Ollama-CrewAI-Request-Server

Um Ollama auf anderen lokalen Rechnern zur Verfügung zu stellen, müssen verschiedene API-Endpunkte zur Verfügung stehen.

Description
Um Ollama auf anderen lokalen Rechnern zur Verfügung zu stellen, müssen verschiedene API-Endpunkte zur Verfügung stehen.
Readme 25 KiB