Zwei Wege zum Prototyp
Am Beginn eines Labors standen auch bei uns architektonische Überlegungen. Wir haben uns dann für 2 verschiedene Wege entschieden:
- Cloudbasierte Lösung mit Microsoft Azure:
Ein Chatbot auf .NET MAUI-Basis, der Confluence-Daten in einen Azure-Blob-Storage lädt und diese mittels Azure AI Search indiziert, vektorisiert und bei Anfragen abruft. Das Backend wurde mit Azure Functions umgesetzt und durch ein LLM unterstützt. - Lokale Lösung ohne Cloud mit Ollama:
Die zweite Variante war eine vollständig lokale Lösung – basierend auf Ollama und einem kompakten LLM, das über Python, LlamaIndex und OpenWebUI angesteuert wird.
Bereits kurze Zeit nach Beginn der technischen Implementierung konnten wir zu beiden Lösungen funktionierende Prototypen vorstellen.
Diese Erfahrung zeigte uns, dass sich mit moderner Technologie in kurzer Zeit einfache KI-Chatbots entwickeln lassen. Aber: Der Weg von „Daten rein“ zu „Antworten raus“ ist deutlich komplexer.