De Facto Standard für agentierte KI ist claude code. Man installiert es mit einem Einzeiler auf Mac/Linux/Windows, startet einfach claude, loggt sich bei Anthropic ein, lädt dort sein Konto noch mit ein paar Euro auf und schon geht’s los.
Dabei nutzen wir im Betrieb das Tool etwas anders als der Entwickler, der damit Code produzieren lässt.
Das Problem bei Claude Code ist, dass es nur mit Claude funktioniert. Man will aber vielleicht eine gekappselte Lösung auf eigener Infrastruktur oder zumindest nicht die hausinternen Informationen zu Trainingszwecken mit der Welt teilen. Dazu gibt es Produkte wie ChatGPT Enterprise oder Github Copilot Enterprise. Im Hintergrund werden zwar dieselben Large Language Models (LLM) benutzt, aber im Gegensatz zu personellen Accounts verwenden die dortigen Agents die Eingabedaten des Users nicht weiter.
Aber was sind jetzt diese Agents? Und wie kommen die Daten überhaupt zum LLM? ChatGPT beantwortet diese Frage so:
+-------------------+
| User |
| (Prompt/Input) |
+---------+---------+
|
v
+-----------------------------+
| Input Processing |
| - Parsing |
| - Context Injection |
| - Memory (optional) |
+-------------+---------------+
|
v
+-----------------------------+
| LLM Core |
| (Foundation Model) |
+-------------+---------------+
|
v
+-----------------------------+
| Reasoning / Thinking |
| - Task Decomposition |
| - Planning (Agent Loop) |
| - Chain-of-Thought (impl.) |
+-------------+---------------+
|
+-------+--------+
| |
v v
+-------------+ +------------------+
| Tool Calling| | Internal Knowledge|
| (APIs, CLI, | | (Weights only) |
| DB, etc.) | +------------------+
+------+------+
|
v
+-----------------------------+
| Environment Interaction |
| (e.g. kubectl, APIs, FS) |
+-------------+---------------+
|
v
+-----------------------------+
| Observation / Feedback |
| - Tool Results |
| - Errors / State |
+-------------+---------------+
|
v
(Agent Loop: iterate)
|
v
+-----------------------------+
| Response Construction |
| - Formatting |
| - Filtering / Safety |
+-------------+---------------+
|
v
+-------------------+
| User |
| (Antwort) |
+-------------------+
Das LLM ist zwar das Gehirn (und brauch auch die meisten Resourcen), aber davor brauch es ein Input Prozessing, damit das LLM die Daten mundgerecht dargereicht wird. Und das Gehirn brauch vielleicht zusätzliche Informationen, die es durch Frage/ANtwort vom Benutzer erfragen kann, oder optimalerweise sich selbst beschafft, etwa mit kubectl get nodes vom Rechner des Benutzers. Agenten sind also sowas wie Hände und Füsse für das Gehirn.
Opencode ist also so eine agentierte KI, die Hände und Füsse eines Gehirns Es kann mit einem Einzeiler installiert werden:
curl -fsSL https://opencode.ai/install | bash
Wer dem Shellscript aus dem Internet nicht traut, es gibt noch npm Installations-Versionen, denn es handelt sich im eine NodeJS App.
Es installiert sich selbständig in ~/.opencode/bin/opencode und von dort muss es auch im Terminal aufgerufen werden. Das nennt sich interaktive Terminaloberfläche (TUI).
Nach dem Start ist es mit dem hauseigenen Model verbunden und man kann sofort loslegen. Aber Halt, wir wollen ja unsere Daten behalten und Enterprise Produkte als LLM verwenden.
Kein Problem. Man ruft einfach /connect auf, um einen neuen LLM-Provider auszuwählen.
Es bieten sich als Optionen an:
Es gibt immer wieder Horrormeldungen, wo die KI ganze Festplatten löscht und scheinbar ausser Rand und Band gerät. Nun, bei claude code gibt es bei jeder Aktion eine Sicherheitsabfrage, bevor wirklich was gemacht wird. Ausserdem kann man das Verhalten des Agenten mit einer CLAUDE.md Datei steuern. Man beschreibt etwa, was die Rolle des Agenten sein soll, wie er an die Kubernetes Cluster rankommt, was der übliche Ablauf ist und welche Stop-Rules es gibt. Zum Beispiel: Rumgucken ist immer erlaubt, aber wenn was geändert oder gelöscht werden soll, soll der Agent explizit nachfragen.
Opencode ist die Handreichung eines Open-Source-Projekts, dass man jederzeit auf Github verfolgen und mitmachen kann, um herstellerunabhängig KI nutzen zu können. Dabei muss man nicht auf die grossen, leistungsstarken LLM verzichten. Bei der täglichen Arbeit kann es enorm helfen, den Aufwand stark reduzieren und Ausfallzeiten verkürzen. Der nächste Schritt wäre vielleicht die Selbstheilung, also der Prometheus Alertmanager schickt die KI los, statt über Webhook ein Ticket zu erstellen.