Google-Mitarbeitende warnen vor Militär-AI: Warum der Fall auch Bau und Handwerk betrifft
Mehrere hundert Google-Mitarbeitende haben sich laut aktuellen Medienberichten in einem offenen Brief an CEO Sundar Pichai gewandt. Sie fordern Google auf, der US-Regierung den Einsatz der eigenen AI-Technologie für klassifizierte militärische Operationen nicht zu erlauben. Je nach Bericht ist von mehr als 560 beziehungsweise über 600 Unterzeichnenden die Rede – darunter auch Mitarbeitende aus dem Google-DeepMind-Umfeld.
Der zentrale Vorwurf: Wenn AI-Systeme in geheimen militärischen Umgebungen eingesetzt werden, wird echte öffentliche Kontrolle schwierig. Die Mitarbeitenden warnen vor Anwendungen wie autonomen Waffensystemen, Massenüberwachung oder anderen extrem schädlichen Einsätzen.
Google steht vor einem alten Konflikt in neuer Dimension
Der Fall erinnert an Project Maven. Bereits 2018 hatte Google nach massivem internem Widerstand eine umstrittene Zusammenarbeit mit dem Pentagon beendet. Damals ging es um AI zur Auswertung von Drohnenbildern.
Heute ist die Lage deutlich grösser. Moderne AI-Modelle können nicht mehr nur Bilder analysieren. Sie können Texte, Bilder, Code, Daten, Entscheidungsprozesse und operative Workflows unterstützen. Genau deshalb werden sie für Regierungen, Militärs und Sicherheitsbehörden immer wichtiger.
Damit verschiebt sich die AI-Debatte: Es geht nicht mehr nur um bessere Modelle, schnellere Antworten oder tiefere Kosten. Es geht um Kontrolle, Verantwortung und Macht.
Gleichzeitig soll Google einen Pentagon-Deal abgeschlossen haben
Besonders brisant: Reuters berichtete am 28. April 2026 unter Berufung auf The Information, dass Google inzwischen einen klassifizierten AI-Deal mit dem US-Verteidigungsministerium abgeschlossen haben soll. Laut Bericht soll Google AI-Modelle für sensible Anwendungen bereitstellen, darunter auch Missionsplanung und Waffen-Zielerfassung.
The Verge berichtete ebenfalls, dass Google und das Pentagon einen Deal für den Einsatz von AI für „any lawful government purpose“ vereinbart hätten. Gleichzeitig sollen Einschränkungen gegen autonome Waffen ohne menschliche Aufsicht und gegen Massenüberwachung im Inland vorgesehen sein. Entscheidend ist aber: Google hätte laut Bericht keine direkte Vetomacht über rechtmässige operative Entscheidungen der Regierung.
Damit steht Google vor einem massiven Spannungsfeld: Auf der einen Seite will das Unternehmen bei nationaler Sicherheit und staatlicher AI-Infrastruktur eine Rolle spielen. Auf der anderen Seite warnen eigene Mitarbeitende davor, dass klassifizierte Einsätze die Kontrolle über die tatsächliche Verwendung der Technologie erschweren.
Anthropic zeigt, wie gross der Druck bereits ist
Der Konflikt ist kein Einzelfall. Anthropic hatte im Februar 2026 öffentlich erklärt, dass das US-Verteidigungsministerium von AI-Anbietern verlangt habe, Modelle für „any lawful use“ zugänglich zu machen und bestimmte Schutzmechanismen zu entfernen. Anthropic schrieb zudem, dass dem Unternehmen eine Einstufung als „supply chain risk“ angedroht worden sei, falls es an bestimmten Sicherheitsgrenzen festhalte.
Damit entsteht ein gefährlicher Präzedenzfall: AI-Unternehmen, die Schutzmechanismen behalten wollen, geraten unter politischen und wirtschaftlichen Druck. AI-Unternehmen, die ihre Systeme öffnen, riskieren interne Proteste, ethische Konflikte und Reputationsschäden.
Die eigentliche Frage lautet: Wer setzt die Grenzen?
Der Fall Google zeigt, dass AI nicht mehr nur eine Technologiefrage ist. Es ist eine Governance-Frage.
Wer entscheidet, wofür ein AI-Modell eingesetzt werden darf?
Das Unternehmen?
Die Regierung?
Die Entwicklerinnen und Entwickler?
Der Kunde?
Oder die Öffentlichkeit?
Diese Frage wird in den nächsten Jahren zentral. Denn AI-Systeme werden immer leistungsfähiger, günstiger und tiefer in bestehende Prozesse eingebaut. Je stärker AI in militärische, politische, wirtschaftliche oder sicherheitsrelevante Systeme integriert wird, desto wichtiger werden nachvollziehbare Regeln.
Warum das auch die Wirtschaft betrifft
Auch wenn der aktuelle Fall aus den USA kommt, betrifft er die gesamte Wirtschaft. AI wird zur Basistechnologie für fast alle Branchen: Bau, Industrie, Energie, Finanzwesen, Gesundheit, Verwaltung, Logistik und Sicherheit.
Unternehmen werden künftig nicht nur gefragt werden, ob sie AI einsetzen. Sie werden gefragt werden, welche AI sie einsetzen, welche Daten sie verwenden, welche Entscheidungen automatisiert werden und wo klare Grenzen gelten.
AI wird damit zur Vertrauensfrage.
Für Unternehmen heisst das: Wer AI einsetzt, braucht nicht nur Effizienz. Er braucht Governance, Transparenz, Datenqualität und Verantwortung.
Was bedeutet das für Bau und Handwerk in der Schweiz?
Auf den ersten Blick wirkt der Konflikt zwischen Google, AI-Mitarbeitenden und dem Pentagon weit weg von der Schweizer Bau- und Handwerksbranche. Doch die eigentliche Botschaft ist auch für den Schweizer Markt hochrelevant: AI wird zur Infrastruktur – und wer AI einsetzt, braucht Vertrauen, Datenqualität und klare Verantwortung.
Auch im Bau und Handwerk werden AI-Systeme künftig immer stärker eingesetzt: bei der Suche nach Betrieben, beim Vergleich von Anbietern, bei Ausschreibungen, bei Projektplanung, Risikobewertung, Nachhaltigkeitsprüfungen, Dokumentation, Wartung, Gebäudemanagement und automatisierten Workflows.
Damit entstehen neue Fragen:
Welche Daten nutzt ein AI-Agent, wenn er einen Betrieb empfiehlt?
Sind diese Daten aktuell, strukturiert und überprüfbar?
Kann ein Betrieb nachvollziehen, warum er empfohlen wurde – oder warum nicht?
Welche Rolle spielen Bewertungen, Referenzen, Skills, Zertifikate und Ratings?
Und wer sorgt dafür, dass AI-Systeme nicht einfach mit veralteten, falschen oder unvollständigen Informationen arbeiten?
Für Schweizer Bau- und Handwerksbetriebe bedeutet das: Sichtbarkeit wird zur Vertrauensfrage. In einer AI-Welt reicht es nicht mehr, irgendwo online auffindbar zu sein. Betriebe müssen für AI-Systeme verständlich, vergleichbar und glaubwürdig werden.
Genau hier entsteht die Bedeutung von strukturierten Branchendaten, Ratings und Trusted Ground Truth. Wenn AI-Agents in Zukunft Betriebe vorschlagen, Projekte vorbereiten oder Anbieter vergleichen, brauchen sie verlässliche Datengrundlagen. Ohne solche Daten drohen falsche Empfehlungen, unsichtbare Qualitätsbetriebe oder Entscheidungen auf Basis unvollständiger Informationen.
Für die Schweiz ist das besonders wichtig, weil Bau- und Handwerksprojekte oft regional, komplex und vertrauensbasiert sind. Ein guter Betrieb ist nicht einfach derjenige mit der lautesten Werbung, sondern jener, dessen Leistungen, Referenzen, Fähigkeiten, Qualität und Projektnähe nachvollziehbar belegt sind.
Warum handwerker.ch hier eine wichtige Rolle spielen kann
Diese Entwicklung zeigt, warum strukturierte Branchendaten im Bau und Handwerk immer wichtiger werden. AI-Agents brauchen nicht nur allgemeine Informationen aus dem Internet. Sie brauchen überprüfbare, aktuelle und vergleichbare Daten.
handwerker.ch arbeitet genau an dieser Schnittstelle: Betriebe sichtbar machen, Daten strukturieren, Bewertungen und Vertrauenssignale einordnen, Referenzen und Fähigkeiten stärker vernetzen und den Schweizer Baubranchen Index (SBI) als Orientierungsschicht weiterentwickeln.
In einer AI-Welt geht es nicht mehr nur darum, ob ein Betrieb gefunden wird. Es geht darum, ob ein AI-System den Betrieb versteht, richtig einordnet und nachvollziehbar empfehlen kann.
Quellen-Hinweis
Die Angaben basieren auf aktuellen Berichten von Reuters, The Verge, Washington Post, Business Insider und Irish Times sowie auf öffentlichen Stellungnahmen von Anthropic. Reuters berichtete am 28. April 2026 zusätzlich über einen angeblich bereits abgeschlossenen klassifizierten AI-Deal zwischen Google und dem Pentagon, basierend auf Informationen von The Information.
- 28.04.2026