X(旧ツイッター)に搭載された生成AI(人工知能)「Grok(グロック)」を悪用し、実在する人物の画像が性的な画像に加工される被害が相次いだ問題で、 Xの日本法人は1月17日、公式アカウントを通じて「Grok」の画像生成機能に関する最新のアップデートを公開しました。
しかしながら、その後も実在の人物の画像を使用しての露出の多い画像の生成が可能でしたが、21日に事実上作成できなくなりました。
不適切コンテンツの削除と法執行機関への通報体制
安全性への取り組み
Xは、児童の性的搾取、同意のないヌード、望まれない性的コンテンツのいかなる形態に対しても、引き続きゼロトレランスの姿勢をとっています。
当社は、児童性的虐待コンテンツ(CSAM)や同意のないヌードを含む、優先度の高い規則違反コンテンツの削除に向けて対応を行い、Xルールに違反したアカウントに対して適切な措置を講じています。また、必要に応じて、児童の性的搾取に関する素材を求めるアカウントを法執行機関に通報しています。
[@]Grokアカウントに関するアップデート
X上の[@]Grokアカウントが、実在の人物の画像についてビキニなどの露出度の高い服装に変える編集を許可しないようにするための技術的措置を全世界で実装しました。この制限は、有料サブスクライバーを含むすべてのユーザーに適用されます。
現在、X上の[@]Grokアカウントを通じた画像生成および画像編集機能は、全世界で有料サブスクライバーのみが利用可能となっています。これにより、[@]Grokアカウントを悪用して法律や当社ポリシーに違反しようとする個人の責任を追及しやすくなり、追加の保護レイヤーが提供されます。
The following two tabs change content below.


タカシ
iPhone/Androidをはじめ最新家電が大好きなWebエンジニアです。あまり優等生な記事では面白くないので、少し際どい皆が本当に知りたい情報を記事にしてゆきたいと考えています。二次情報を転載するだけの「スマホ情報ブログ」にならないよう役に立つ情報を発信してゆきます。
最新記事 by タカシ (全て見る)
- Grokアップデートで実在の人物の画像を使用しての露出の多い画像の生成を不可に - 2026年1月23日




コメント