Chatbots werden von der Google-Mutter Alphabet als Risiko für vertrauliche Informationen eingestuft. Dabei verweist das Unternehmen auf die Verarbeitung von Nutzerdaten zu Trainingszwecken.
Beim Umgang mit KI-Bots wie dem hauseigenen Bard, rät die Google-Mutter Alphabet ihren Mitarbeitern zur Vorsicht. Reuters berichtete, dass Alphabet vor allem davor warnt, vertrauliche Informationen an Chatbots weiterzugeben. Die Daten würden im Anschluss vom jeweiligen Betreiber des KI-Chatbots gespeichert.Aus Large Language Models (LLM) beziehen Chatbots, egal ob Google Bard, Open AIs ChatGPT oder Microsofts Bing ihre künstliche Intelligenz. Diese müssen wiederum ständig trainiert werden – zu diesem Zweck verwenden die Anbieter auch die Daten, die Nutzer den Chatbots anvertrauen. Diese Trainingsdaten werden zudem gespeichert und sind unter Umständen auch für deren Mitarbeiter sichtbar.
Drei Jahre Chatbot-Daten-Speicherung von Google
Teile von Konversationen als Stichproben werden ausgewählt und von geschulten Prüfern kontrolliert, so ein Hinweis von Google. Zu diesem Zweck werden die Daten über einen Zeitraum von bis zu drei Jahren gespeichert. Allerdings sollen keine Informationen vorgehalten werden, „die dazu verwendet werden können, Sie oder andere Personen in Ihren Bardiskussionen zu identifizieren“.
OpenAI äußert sich ähnlich: „Wir überprüfen Konversationen, um unsere Systeme zu verbessern und um sicherzustellen, dass der Inhalt mit unseren Richtlinien und Sicherheitsanforderungen übereinstimmt.“