
拓海さん、最近部下から『インターセクショナルなユーザーの声を拾うべきだ』って言われましてね。正直、何が違うのか分からなくて困っています。これって要するに〇〇ということ?

素晴らしい着眼点ですね!まず結論を先に言いますと、この論文は『多重の社会的弱者性を持つユーザー(インターセクショナルユーザー)が、一般的な調査や設計では見落とされやすく、結果的にソフトウェアが有害になり得る』と示していますよ。

それは大事そうですね。でも現場はリソースが限られている。投資対効果の観点で、具体的に何を注意すればよいのか分かりません。

大丈夫、一緒に分解しましょう。要点を3つにまとめると、1) 誰の声を拾っているか、2) どの懸念が高優先か、3) 早期に手を打てるポイントです。今日はそれを順を追って説明できるようにしますよ。

まず『誰の声』かですか。うちの製品は幅広く使われているので、特定の属性を全部把握するのは無理に思えますが。

その通りです。ここでの『インターセクショナル(Intersectional、INT、交差性)』は、性別や人種、障害など複数の属性が重なった状態を指しますよ。単一の属性だけを見ると見落とす問題が多いので、まずは代表的に重なる組み合わせに注目するのが効率的です。

なるほど。では『どの懸念が高優先』かの判断はどうするのですか。うちの現場で即効性のある判断基準が欲しいです。

論文はRedditというコミュニティデータを用いて、利用者が実際に何を懸念しているかを時系列で抽出しましたよ。具体的には、deep learning (DL、深層学習) を使い、投稿から『サイバーいじめ』『不適切なコンテンツ』『差別』といった高頻度の課題を見つけています。つまり実データに基づく優先順位付けが可能なんです。

実データに基づくのは説得力がありますね。ただうちでやるにはAI導入のハードルが高い。小さな投資で効果が見えるものから始められますか。

できますよ。まずは小さな監視ルールを作り、特定キーワードや報告頻度をモニタするだけで問題の兆候は捕まえられます。要は完全なアルゴリズムを作る前に、現場で起きている『痛みの見える化』をすることが先決です。

それなら現場負荷も少なそうだ。監視して優先順位の高い問題が出たら、どのように対応すれば良いでしょうか。

対応は三段階ですよ。まず一次対応でコンテンツの除去や通報プロセスを簡便化し、二次対応で当該ユーザーコミュニティに説明責任を果たし、三次対応で設計改修につなげる。どれも現場でのプロセス改善で始められます。

設計改修は時間がかかるでしょうが、説明責任はすぐにできそうです。最後に、これを社内で理解させるための簡潔な要点を教えてください。

いい質問ですね。要点は3つです。1) インターセクショナル利用者は特有の被害を受けやすい、2) 実データを使った優先順位付けで効率的に対処できる、3) 小さい運用改善から始めて設計変更に繋げる。これだけ押さえれば社内合意は作りやすいですよ。

分かりました。自分の言葉で言うと、『特に複数の弱い立場が重なった人たちの声は見落とすと大きな問題になりやすいから、まずは現場の投稿を簡単にモニタして、優先度の高い被害から順に運用で塞いでいく』、これで合っていますか。


