Digitale Produkte im Umbruch – Was Google I/O und Microsoft Build über die Zukunft verraten

Abbildung einer Person, die mit einem Sprachassistenten spricht, umgeben von Symbolen für E-Mail, Suche, Analysen und Benutzerprofilinformationen. *(Hinweis: Der Originaltext enthält nicht den Buchstaben „ß“, daher waren keine Ersetzungen erforderlich.)*.

Deine Nutzenden reden schon mit dem Web

Hast du gemerkt, wie sich das Web gerade still und heimlich verwandelt? Wer heute bei Google eine Frage stellt, tippt nicht mehr einfach "Reiseziel Thailand" oder "beste CRM Software" ein. Stattdessen entstehen Sätze wie: "Ich suche ein tropisches Reiseziel für drei Wochen im Juni, ideal zum Wandern und mit guten Tauchmöglichkeiten."

Und das funktioniert – weil AI mittlerweile mitliest, mitdenkt und mitredet. Google berichtet, dass Suchanfragen durch den AI Mode doppelt so lang geworden sind. Nutzer:innen erwarten nicht nur Ergebnisse, sondern echte Gespräche.

Zwei Konferenzen, ein Signal

Google I/O und Microsoft Build 2025 haben eines klargemacht: Die grossen Tech-Plattformen bauen an einer neuen digitalen Wirklichkeit. Statt Buttons und Menüs rücken Agents, Spracheingaben und Systemintelligenz ins Zentrum.

Google positioniert Gemini als allgegenwärtige Assistenz – sie liest mit, hört zu und hilft mit. Microsoft setzt auf ein offenes Ökosystem, in dem Websites nicht nur von Menschen, sondern auch von AI-Agents bedient werden. Klingt futuristisch? Ist aber jetzt Realität.

Verändertes Nutzungsverhalten

Was heisst das für dich? Deine Nutzer*innen klicken nicht mehr, sie sprechen. Sie scrollen weniger, fragen mehr. Die klassische Website mit Menüstruktur wird ergänzt – oder abgelöst – durch dialogbasierte Interfaces.

Laut Google sind Suchanfragen heute nicht nur doppelt so lang, sondern auch deutlich komplexer. Menschen formulieren ihre Absicht. Und erwarten, dass die Technik sie versteht. Das verändert alles – von der Content-Strategie bis zur Navigation.

Zero-Click-Ergebnisse, AI Overviews und semantische Suchen zeigen: Wenn dein Content nicht AI-verstehbar ist, wird er schlicht übergangen. Sichtbarkeit entsteht nicht mehr durch gute Platzierung, sondern durch gute Verständlichkeit – für Mensch und Maschine.

Neue Spielregeln für digitale Produkte

AI ist nicht mehr nur ein Werkzeug – sie wird zum Interface. Mit Gemini Live analysiert Google Kamera- und Bildschirminhalte in Echtzeit und reagiert auf den Kontext, statt nur auf Befehle. In der Praxis heisst das: Deine Nutzer*innen erwarten zunehmend, dass Systeme sie verstehen – nicht nur bedienen.

Parallel dazu entsteht mit dem „Agentic Web“ ein neues digitales Ökosystem: Websites und Services werden so gestaltet, dass auch Maschinen – also AI-Agents – direkt mit ihnen interagieren können. Microsofts NLWeb-Protokoll ist ein erster Baustein in diese Richtung. Es funktioniert wie eine zweite Sprache, speziell für Agents – damit sie Informationen verlässlich abrufen und Aktionen ausführen können.

Ein zentrales technisches Bindeglied in diesem Wandel ist das MCP-Protokoll – das Model Context Protocol. Ursprünglich von Anthropic entwickelt und inzwischen von Google, Microsoft und OpenAI übernommen, standardisiert MCP, wie Anwendungen Kontext an AI übergeben. Denk an MCP wie an einen USB-C-Anschluss für AI-Anwendungen: ein einheitlicher Weg, um AI-Modelle mit Datenquellen und Tools zu verbinden.

Für das Management von Zugriffsrechten und Identitäten hat Microsoft zusätzlich die Entra Agent ID eingeführt. Damit erhalten AI-Agents eindeutige, überprüfbare Identitäten – so lassen sich Sicherheits- und Compliance-Richtlinien ähnlich anwenden wie bei menschlichen Nutzer*innen. Das ist essenziell, wenn Agents in sensiblen Unternehmenssystemen agieren sollen.

Und nicht zuletzt verschwimmen die Grenzen zwischen Sprache, Bild, Touch und Gesten. Multimodale Interaktion wird zur Norm: Du musst nicht mehr wissen, wo du klickst – nur noch, was du willst. Den Rest übernimmt dein Agent.

Nutzungszentriert und agentenfähig: So entwickelst du zukunftsfähige Produkte

Kurz gesagt: Dein Produkt muss nicht mehr nur für Menschen funktionieren – sondern auch für Maschinen.

Bau dir Agent-Endpoints: also Schnittstellen, über die dein Angebot auch für AI verständlich wird. Denk in Absichten statt Klickpfaden. Und entwickle Kontexte, die sich erinnern: Was deine Nutzerin gestern gefragt hat, sollte morgen noch relevant sein.

Multimodalität wird Standard. Deine Anwendung sollte problemlos zwischen Stimme, Touch und Text wechseln können. Und dabei Vertrauen ausstrahlen: Was speicherst du? Was gibst du weiter? Wer darf mitlesen? Diese Fragen entscheiden über Akzeptanz.

Dein Produkt wird mehr und mehr zum Gesprächspartner. Ob das bequem oder beängstigend ist – hängt davon ab, wie gut du diesen Wandel gestaltest.

SEO & Content 2.0

SEO war gestern. GEO ist heute: Generative Engine Optimization. Bedeutet konkret: Deine Inhalte müssen so gebaut sein, dass AI sie versteht, zusammenfassen und weitergeben kann.

Dazu gehören semantisch strukturierte Inhalte, klare Beziehungen zwischen Themen, gut lesbare Formate wie Listen, Tabellen oder FAQs. Vor allem aber zählt der Mehrwert: AI empfiehlt nur, was auch wirklich nützt. Und wer nützt, gewinnt Reichweite.

Mach dir klar: Deine Inhalte sprechen künftig nicht nur mit Menschen, sondern auch mit deren AI-Begleiter. Wenn du willst, dass deine Info in der nächsten Antwort auftaucht, solltest du sie AI-freundlich gestalten.

So bereitest du dich vor

Du willst mit digitalen Produkten nicht nur mithalten, sondern vorausdenken? Dann brauchst du beides: eine interne Neuausrichtung und ein Verständnis dafür, wie und wo deine Nutzer*innen morgen unterwegs sind.

Hier ist dein 5-Schritte-Fahrplan:

  1. Use-Case-Radar aufstellen – Wo können Agents Prozesse vereinfachen oder neue Erlebnisse schaffen? Inspiration findest du villeicht in diesem Beitrag.
  2. Architektur überdenken – Welche deiner APIs sind Agent-kompatibel? Wo brauchst du strukturiertere Daten, um AI den Zugang zu erleichtern?
  3. Pilot starten – Fang klein an: ein smartes FAQ, einen Terminassistenten, eine Schnittstelle zu Gemini oder Copilot. Beobachte, wie deine Nutzer*innen reagieren und lerne daraus.
  4. Governance klären – Wer darf was, mit welchen Daten? Denk an Rollenmodelle für Agents, Consent-Mechanismen und Datenschutz.
  5. Auf neuen Plattformen präsent sein – Frag dich: Wenn AI künftig mit deinen Nutzer*innen spricht – ist deine Marke Teil des Gesprächs? Mach dich auffindbar und anschlussfähig für Gemini, ChatGPT, Windows Copilot & Co.

Die wichtigste Frage lautet:
Wo treffen Nutzer*innen morgen auf dein Produkt – und in welcher Form?

Geschrieben von
Mirco Strässle

App-Entwicklung|Mai 2025

Weitere Artikel