Die KI-Bilderplattform Civitai steht im Zentrum einer hitzigen Debatte, nachdem Berichte über die mögliche Erstellung von Kinderpornografie und sexuellem Missbrauchsmaterial (CSAM) aufgetaucht sind. Der Cloud Computing-Anbieter OctoML hat daraufhin die Zusammenarbeit mit Civitai beendet.
Missbrauch der KI-Technologie
Eine Untersuchung von 404 Media enthüllte, dass Civitai für die Erstellung von Bildern genutzt wurde, die als Kinderpornografie oder CSAM eingestuft werden könnten. Civitai nutzte OctoMLs OctoAI für die Bilderzeugung. Trotz anfänglicher Bemühungen, die Erstellung schädlicher Bilder einzudämmen, entschied sich OctoML letztendlich für die Beendigung der Geschäftsbeziehung.
Bedenkliche Inhalte auf Civitai
Interne Kommunikationen zeigten, dass OctoML sich der Erstellung sexuell eindeutigen Materials auf Civitai bewusst war. Dies umfasste nicht einvernehmliche Bilder von realen Personen und pornografische Darstellungen von Kindern. Als Reaktion auf die Untersuchung führte die Plattform neue Moderationsmethoden ein, darunter Civitai Safe Helper (Minor), um die Generierung von Bildern von Kindern bei Erkennung „reifer Themen oder Schlüsselwörter“ zu verhindern.
Civitai unter Beschuss
Die Plattform geriet bereits früher in die Kritik wegen seiner „Bounties“-Funktion, die Nutzer dazu anregte, realistische Bilder von realen Personen zu erstellen und dafür Belohnungen zu erhalten. Diese Funktion wurde genutzt, um unzulässige Deepfakes von Prominenten, Influencern und Privatpersonen zu erstellen, oft mit sexuellem Inhalt. Reagiert wurde mit einem Filter, der die Erstellung von NSFW-Inhalten mit „bestimmten“ Prominenten verhindern sollte.
OctoML zieht Konsequenzen
OctoML, das Amazon Web Services für seine Server nutzt, entschied sich, sich von Civitai zu distanzieren. In einer Erklärung betonte das Unternehmen seine Verpflichtung, den sicheren und verantwortungsvollen Einsatz von KI zu gewährleisten. Diese Entscheidung markiert einen Wendepunkt in der Debatte um die ethische Verantwortung von KI-Unternehmen und die Notwendigkeit, Missbrauch ihrer Technologien zu verhindern.
Via Engadget