2018年、インフルエンサーとして活躍するカタナ・ファターレさんは、ハワイにある屋外シャワーを利用した。
彼女は、2014年から自身の体を撮影し、インスタグラムでプラスサイズの魅力を伝えている。
今回も、美しい自然光を生かした写真を何千人ものフォロワーに向け発信した。

「この写真は本当に大きな反響がありました。素晴らしいことだと感じました」とファターレさんはBuzzFeed Newsに語った。
「その時のことを今でもよく覚えています。私はビーチにいて、自分の投稿を確認するため、インスタグラムを開きました」
「すると、『投稿が削除された』という通知が届いたのです」
確かにこの写真で彼女は裸だった。
しかし、Instagramのコミュニティガイドラインに従い、女性の乳首、性行為、性器、お尻の寄り等の箇所は写っていなかった。
インスタグラムのガイドラインによれば、上記の箇所が写っていない限り問題はないことになっている。
また、インスタグラムは、授乳の写真や乳房切除後の瘢痕の写真、絵画や彫刻などのヌード写真の投稿を許可している。
他の女性は問題なく投稿している写真が、なぜ自分の写真だけ「違反」と見なされたのか、ファターレさんは理解に苦しんでる。
さらに、彼女は「今後もガイドラインに違反すると、アカウントを凍結する」という通知も受け取った。
そうではない体型の女性が同じような写真を投稿して削除されることは、珍しい。
プラスサイズの人の画像が、より頻繁に削除されることを示す明確なデータはないが、このような報告は多い。
そのため、プラスサイズのインフルエンサーたちも、「太った人の写真だけ」が削除されるているのでは、と思わずにはいられないようだ。
「このような例があまりにも多いのです。火の無い所に煙は立たちません。明らかに、太っている人の写真だけが多く削除されているのです」とファターレさんは語る。
複数の専門家は、BuzzFeed Newsにプラスサイズの人の写真がより多く削除されている可能性が非常に高いと語る。
ソーシャルメディアアプリの投稿管理は、人工知能と運営側の人間の両方が行っている。そしてどちらも、大きな体の写真に対して潜在的なバイアスがあるようだ。
マチュー・ルメイさんは、AIコンサルティング会社「Lemay.ai」の共同設立者だ。
ルメイさんは、AIは完璧から程遠く、かなりいい加減な物だと理解するのが大切だ、と指摘する。
「テクノロジーと差別は、ずっと昔からあるものなのです」と、ルメイさんはBuzzFeed Newsに語った。
またフェイスブックのような企業は、独自の画像や動画を管理するAIを導入している。何百万もの画像を読み込ませてパターンを識別し、何がが許容可能で、何許容できないかを判別する仕組みだ。そのうえで、例えばポルノ画像、乳首、ビキニの画像などを特定する。
ユーザーが投稿した画像をAIが認識し、その画像に禁止されているコンテンツが含まれているかどうかを判断している。そして、禁止されたコンテンツが確実に含まれていると判断した場合は警告を出す。確実ではないと判断した場合は、自動的に担当者に送られ、人の目による再確認が行われる。
問題は、グレーゾーンが非常に広く、AIはこれまでに教えられた内容に基づいてしか判断を行えないという点だ。そこから、最初の潜在的な問題が発生する。
メディアにプラスサイズ体型へのバイアスがあり、その結果としてAIが多くのプラスサイズ女性の画像を学習していなかったとすれば、問題の根源となりうる。
さらにルメイさんは、AIが「やせた体型の人の裸の画像」と「ビキニを着たプラスサイズ体型の人の画像」を区別することができない、と語る。
「両者の写真を並べた場合、AIはプラスサイズの人の画像の方が肌のピクセルが多い(つまり露出度が高い)、と判断してしまうのです」
AIは、表示されている写真の意味を認識出来ないため、誤った分類に認識してしまう可能性があるのだ。AIシステムは、人間によって構築されたものだ。そして、人間にはバイアスがある。
シューグ・マクダニエルさんは、フロリダを拠点に活動するアーティストで、プラスサイズの人のヌード写真を主に撮影している。
ファターレさんと同様に、マクダニエルさんも性器と乳首は写らないよう、そしてお尻を写す場合は遠くから、という写真投稿に関するルールを心得ている。
しかしそれでも、毎週のように投稿した写真が削除されてしまうという事態が起こっているという。
「これは、コミュニティ全体でここ最近話題になっていた話です。AIが、体における皮膚の割合で裸かどうかを判断しているのでは、ということです」 とマクダニエルさんはBuzzFeed Newsに語った。
「この問題の大部分はAIの欠陥と、社会にある『肥満恐怖症』が原因だと思います。とてもこんなことは受け入れられませんが、私たちに何ができるのでしょうか?」
マクダニエルさんは、画像削除の撤回に成功したことはこれまでに一度もない、と話した。
インスタグラムを所有するフェイスブックは、その監視システムの仕組みについてはあまり明らかにしていない。
「我々の方針が、もっと包括的になり、すべてのアイデンティティを反映できるよう、常に方針を見直し、どのように改善できるか、全力を尽くしています」とフェイスブックの広報担当者は語る。
「インスタグラムのポリシーに違反するコンテンツを削除し、違反の可能性のあるコンテンツを積極的に発見するためにAIの訓練を行っています」
また、TikTokの広報担当者からも同じような回答を送ってきた。
「このテクノロジーは、人の体の大きさに基づいて、投稿を削除するようには訓練されていません」
「性器やヘイトスピーチを含む文章等の、ポリシーに違反するコンテンツを探すように訓練されているのです」
「TikTokは、クリエイティブな表現を大切にした包括的なプラットフォームです」
「TikTokのユーザーは、コミュニティガイドラインで説明されているポリシーを遵守しています」
しかし、企業からの回答は、マクダニエルさんにとってあまり満足のいくものではなかった。
「現在のところ、写真の検閲はさらに厳しくなっており、命などに関する写真がものすごい勢いで削除されています」とマクダニエルさんは語る。
またマクダニエルさんは、プラスサイズの人の写真の削除には、AIだけではなく、ユーザーが関わっていることも知っている。
プラスサイズの人の写真は、しばしば「ボディ・シェイミング」が好きな荒らしユーザーたちによって通報されてしまうことがあるのだ。
インスタグラム側はこのような現象を認識した上で、こうした通報によって自動的に何かが起こるわけではない、と語る。
しかし、何かしら関係があるのではないかと考えている人も多い。
コンテンツの管理とオンライン上の嫌がらせを研究しているカット・ローさんは、こうした通報による画像の削除には、生身の人間も大きく関わっている、と語る。
人間が写真を認識する際、プラスサイズ体型の人の画像が、普通の体型の人の画像よりも「わいせつ」、または性的なコンテンツとしてマークされる可能性が非常に高い、とローさんは語る。
それは、「プラスサイズ」に対する社会の偏見があるからだ。
「 『乳首が見える』のような大きな理由ではなく、本当にたくさんの小さな理由があるのです」
投稿された写真の取締まりを行うデータベースは、規模が大きいため、こうした人間の潜在的な問題を実際に修正することはコストと時間がかかる。
そのため企業は中々腰を上げようとしないのだ。
インスタグラムやTikTokのようなアプリは、使用できる年齢制限がある。
またオンライン人身取引防止法案、通称「FOSTA-SESTA」などの法律や、テロ関連のコンテンツを削除するために、投稿管理は必須だ。
つまり警戒しすぎる方が、楽なのだ、とローさんは説明する。
その結果、ファターレさんのような人たちが中途半端な状態に置かれてしまっている。
「インスタグラムがこの問題を無視しているのは本当に悲しいことです」とファターレさんは語る。
「自分の体が普通よりも大きいからといって、体が過度に性的に認識されていることに対して黙ったままでいるつもりはありません」彼女は力強く語った。
この記事は英語から翻訳・編集しました。