Am Dienstag hat der Entwickler von ChatGPT, OpenAI, bekannt gegeben, dass er mit dem US-Verteidigungsministerium an Cybersicherheitsprojekten arbeitet und nach Möglichkeiten sucht, Selbstmorde von Kriegsveteranen zu verhindern, berichtet Bloomberg.

ChatGPT

OpenAI gab die Zusammenarbeit in einem Interview mit dem Nachrichtensender auf dem Weltwirtschaftsforum in Davos bekannt. Die KI-Firma hat kürzlich ihre Richtlinien geändert, um bestimmte militärische Anwendungen ihrer Technologie zu erlauben, während die Nutzung für die Entwicklung von Waffen weiterhin verboten bleibt.

Laut Anna Makanju, Vizepräsidentin für globale Angelegenheiten bei OpenAI, dachten viele Leute, dass [ein früheres generelles Verbot militärischer Anwendungen] viele dieser Anwendungen ausschließen würde, von denen die Menschen glauben, dass sie sehr gut zu dem passen, was wir in der Welt sehen wollen. OpenAI hat Bedingungen aus seinem Dienstleistungsvertrag entfernt, die zuvor den Einsatz von KI in “militärischen und kriegerischen Situationen” blockierten, aber das Unternehmen hält weiterhin an einem Verbot fest, seine Technologie zur Entwicklung von Waffen oder zur Verursachung von Schaden an Personen oder Eigentum zu verwenden.

Im Abschnitt “Allgemeine Richtlinien” der Nutzungsrichtlinien von OpenAI heißt es unter Punkt 2: “Benutzen Sie unseren Dienst nicht, um sich selbst oder anderen Schaden zuzufügen”. Das Verbot umfasst auch die Verwendung seiner KI-Produkte zur “Entwicklung oder Verwendung von Waffen”. Änderungen an den Nutzungsbedingungen, die das Verbot von “militärischen und Kriegssituationen” aufheben, wurden anscheinend am 10. Januar von OpenAI vorgenommen.