Skip to content
← Zurück zum Blog

AWS Bedrock AgentCore: Praktische Einführung für KI-Agenten

AWSBedrockAgentCoreKI-AgentenStrands

Produktionsreife KI-Agenten zu bauen ist schwierig. Sie müssen Modell-Orchestrierung, Speicher-Persistenz, Tool-Integration, Authentifizierung, Skalierung und Deployment handhaben — und dabei die Kosten im Griff behalten. AWS Bedrock AgentCore löst dieses Problem mit einer verwalteten Plattform, die speziell für agentische KI-Workflows entwickelt wurde.

Bei HTX2 arbeiten wir seit dem Launch mit AgentCore. Hier ist eine praktische Einführung basierend auf unserer realen Erfahrung.

Was ist Bedrock AgentCore?

Amazon Bedrock AgentCore ist eine Suite von Services, die die Entwicklung, das Deployment und das Management von KI-Agenten beschleunigt. Anders als allgemeine ML-Plattformen bietet AgentCore spezialisierte Infrastruktur für agentische Workflows:

  • AgentCore Runtime — Serverlose Bereitstellung und Skalierung Ihrer Agenten
  • AgentCore Memory — Persistenter Kurzzeit- und Langzeitspeicher
  • AgentCore Gateway — Bestehende APIs als Agenten-Tools über MCP bereitstellen
  • AgentCore Code Interpreter — Sichere Python-Ausführung in isolierten Sandboxen
  • AgentCore Browser — Verwalteter Chrome-Browser für Web-Interaktion
  • AgentCore Identity — Authentifizierung und Zugriffsverwaltung

Die zentrale Erkenntnis: AgentCore zwingt Sie nicht in ein bestimmtes KI-Framework. Es funktioniert mit Strands Agents, LangChain, LangGraph, CrewAI oder einfachem Python.

Erste Schritte: Ihr erster Agent

Der schnellste Weg ist die Verwendung des Strands-Frameworks mit dem AgentCore Runtime SDK:

from bedrock_agentcore import BedrockAgentCoreApp
from strands import Agent

app = BedrockAgentCoreApp()
agent = Agent(model="us.anthropic.claude-3-7-sonnet-20250219-v1:0")

@app.entrypoint
def my_agent(payload):
    result = agent(payload.get("prompt", "Hallo"))
    return {"result": result.message}

if __name__ == "__main__":
    app.run()

Deployment mit zwei Befehlen:

agentcore configure --entrypoint my_agent.py
agentcore deploy

Das war’s. AgentCore übernimmt Containerisierung, IAM-Rollen, Health-Checks und Skalierung automatisch.

Memory: Der Game Changer

Was AgentCore wirklich nützlich macht, ist sein Memory-System. Die meisten KI-Agent-Frameworks behandeln jede Konversation als zustandslos. AgentCore bietet zwei Arten von persistentem Speicher:

Kurzzeitspeicher (STM)

Speichert rohe Konversationsverläufe innerhalb einer Sitzung. Wenn ein Nutzer zur gleichen Sitzung zurückkehrt, macht der Agent dort weiter, wo er aufgehört hat. Events verfallen nach einem konfigurierbaren Zeitraum (z.B. 7 Tage).

Langzeitspeicher (LTM)

Hier wird es interessant. LTM nutzt Extraktionsstrategien, um automatisch zu extrahieren:

  • Nutzerpräferenzen — „Ich bevorzuge Python”, „Nutze Dark Mode”
  • Semantische Fakten — „Mein Unternehmen nutzt AWS”, „Budget ist 50K €”

Diese extrahierten Erinnerungen bleiben sitzungsübergreifend bestehen. Ein Nutzer kann eine neue Konversation starten, und der Agent kennt trotzdem seine Präferenzen und seinen Kontext.

from bedrock_agentcore.memory import MemoryClient

client = MemoryClient(region_name='eu-central-1')

# LTM mit Extraktionsstrategien erstellen
memory = client.create_memory_and_wait(
    name="KundenAssistent",
    strategies=[
        {"userPreferenceMemoryStrategy": {
            "name": "prefs",
            "namespaces": ["/user/preferences/"]
        }},
        {"semanticMemoryStrategy": {
            "name": "facts",
            "namespaces": ["/user/facts/"]
        }}
    ],
    event_expiry_days=30
)

Gateway: Agenten mit Ihren APIs verbinden

AgentCore Gateway ermöglicht es, bestehende APIs (Lambda-Funktionen, REST-APIs oder beliebige OpenAPI-kompatible Services) als Tools bereitzustellen, die Ihr Agent nutzen kann. Es verwendet den Model Context Protocol (MCP) Standard — Tools sind damit automatisch auffindbar und selbstbeschreibend.

So können Sie beispielsweise eine Lambda-basierte Berechnung, eine Datenbankabfrage oder ein CRM-Lookup als MCP-Tools bereitstellen — und Ihr Agent entdeckt und nutzt sie automatisch.

Wann AgentCore verwenden vs. Eigenentwicklung

Verwenden Sie AgentCore wenn:

  • Sie produktionsreife Speicher-Persistenz benötigen
  • Ihr Agent mehrere gleichzeitige Sitzungen handhaben muss
  • Sie verwaltete Skalierung ohne Kubernetes-Komplexität wollen
  • Sicherheit und IAM-Integration mit AWS-Services erforderlich sind
  • Sie bereits im AWS-Ökosystem sind

Erwägen Sie Alternativen wenn:

  • Sie Latenz unter 100ms benötigen (AgentCore fügt etwas Overhead hinzu)
  • Sie einen einfachen Chatbot ohne Tool-Nutzung bauen
  • Ihr Stack vollständig nicht-AWS ist
  • Sie volle Kontrolle über die Inference-Pipeline brauchen

Kostenüberlegungen

AgentCore folgt dem AWS Pay-per-Use-Modell. Die wichtigsten Kostenfaktoren sind:

  • Runtime: Abrechnung pro Aufruf (ähnlich wie Lambda)
  • Memory: Speicherung und Abruf pro Event
  • Foundation Models: Standard-Bedrock-Preise für Modell-Inference

Für unseren HTX2-Landing-Page-KI-Agenten bleiben die gesamten AgentCore-Kosten gut innerhalb des AWS Free Tier — etwa 0–2 $/Monat bei moderatem Traffic.

Was wir mit AgentCore gebaut haben

Bei HTX2 läuft unser eigener Website-KI-Assistent auf AgentCore. Er nutzt:

  • Strands Agents als Orchestrierungs-Framework
  • Amazon Nova Lite für schnelle, kosteneffiziente Inference
  • S3 Vectors für Kontext-Retrieval
  • Lambda (ARM64) für die API-Schicht

Der gesamte Stack wird via AWS CDK deployt und kostet weniger als eine Tasse Kaffee pro Monat.

Erste Schritte

  1. SDK installieren: pip install bedrock-agentcore strands-agents
  2. AWS-Anmeldedaten konfigurieren: aws configure
  3. Agent-Datei mit @app.entrypoint erstellen
  4. Deployen: agentcore configure && agentcore deploy
  5. Testen: agentcore invoke '{"prompt": "Hallo"}'

Die Dokumentation unter AWS AgentCore bietet umfassende Anleitungen für jeden Service.


HTX2 entwickelt KI-Agenten mit AWS Bedrock AgentCore und Strands. Sehen Sie unser Portfolio oder kontaktieren Sie uns.