Bard: Google warnt Mitarbeiter vor der Nutzung des eigenen Chatbots

Google legt seinen Mitarbeitern nahe, auf die Eingabe vertraulicher Daten in Chatbots zu verzichten. Ingenieure sollten erzeugten Programmcode nicht verwenden.

In Pocket speichern vorlesen Druckansicht 10 Kommentare lesen
Munich,,Germany,-,08.,February,2023:,Google,Bard,-,Ai

(Bild: Primakov/Shutterstock.com)

Lesezeit: 2 Min.

Ausgerechnet die Google-Mutter Alphabet warnt seine Mitarbeiter vor der Nutzung generativer KI – inklusive des hauseigenen Chatbots Bard. Speziell Ingenieure sollten weder Code zur Fehleranalyse in trainierten Sprachmodelle eingeben, noch die ausgegebenen Zeilen nutzen. In einem am 1. Juni aktualisierten Datenschutzhinweis von Google heißt es Reuters zufolge: "Fügen Sie keine vertraulichen oder sensiblen Informationen in Ihre Bard-Konversationen ein".

Zum einen könnten menschliche Prüfer die Eingaben in Chatbots wie ChatGPT und Bard lesen, andererseits hätten Forscher herausgefunden, dass die KI während des Trainings aufgenommene Daten reproduzieren könne, was ein Sicherheitsrisiko für die von Google-Ingenieuren eingegebenen Codezeilen bedeuten könne.

Im Rennen um die beste KI stehen auch für Google Milliarden auf dem Spiel – Investitionen und zukünftige Werbeeinnahmen. Google führe seinen Chatbot Bard in mehr als 180 Ländern, die eigenen Angestellten sollten jedoch die Eingabe von vertraulichen Informationen vermeiden. Gegenüber Reuters bestätigte das Unternehmen die Anweisung und beruft sich demnach auf die seit langem bestehende Richtlinie zum Schutz von Informationen. Google wolle ebenfalls die Grenzen seiner Technologie transparent machen.

Während SAP etwa ChatGPT bereits im produktiven Einsatz nutzt und sich von OpenAIs KI beim Programmieren unterstützen lässt, verbietet Alphabet seinen Angestellten die Nutzung des eigenen Pendants, um den eigenen Computercode zu schützen. Zwar hätten Google und Microsoft Chatbot-Dienste für Unternehmen zu einem höheren Preis im Angebot und die dort eingegebenen Daten würden nicht in die öffentlichen KI-Modelle einfließen, so ganz scheinen die Anbieter dem eigenen Produkt aber dennoch nicht zu vertrauen.

Samsung und die Wall-Street-Banken JPMorgan Chase, Bank of America sowie die Citigroup verbieten in ihren Unternehmen die Nutzung der Technologie ganz oder schränken sie zumindest ein. Mercedes-Benz, Volkswagen, Zalando und Klarna prüfen derzeit den möglichen Einsatz von generativer KI für ihre Unternehmen.

In der EU befindet sich gerade eine KI-Verordnung in Arbeit und neben den Warnungen von Googles Ex-Chef, Eric Schmidt, gesteht selbst der OpenAI-Gründer, Sam Altman, Risiken von Künstlicher Intelligenz ein. Matthew Prince, der CEO von Cloudflare, sagte laut Reuters, dass die Eingabe vertraulicher Angelegenheiten in Chatbots so sei, "als würde man einen Haufen Doktoranden auf all Ihre privaten Unterlagen loslassen".

(bme)