# Ollama-CrewAI-Request-Server Um Ollama auf anderen lokalen Rechnern zur Verfügung zu stellen, müssen verschiedene API-Endpunkte zur Verfügung stehen.