G検定模擬問題(4) 問85  解答

最も不適切な選択肢は:
③ 機械学習においては一般的に多数派が尊重され,少数派が反映されにくい傾向があることから,サンプリングバイアスを排除するためにセンシティブ属性を取り除き非センシティブ属性にのみ基づき予測を行うなどの注意が必要である.

解説:
公平性に関する重要なポイント:
AIが公平性を保つためには、以下の点が重要です:
1.センシティブ属性の扱い:
 ・センシティブ属性(例: 性別、年齢、人種など)はバイアスの要因となり得ますが、必ずしも取り除くだけが解決策ではありません。
 ・センシティブ属性を完全に取り除くと、その属性による不公平を検出・緩和することが難しくなる場合があります。
2.代理変数の影響:
 ・センシティブ属性を直接除外しても、名前や住所などがその属性の代理変数として作用し、間接的にバイアスを引き起こす可能性があります。
3.人間による最終判断のリスク:
 ・AIの出力を人間が最終的に判断する場合、人間のバイアスが結果に影響する可能性があるため注意が必要です。
なぜ選択肢③が不適切なのか?
 ・センシティブ属性を単純に取り除くことは、公平性を保つ手段として不十分です。
 ・センシティブ属性を考慮しないと、モデルが既存の不平等を学習・再現してしまい、バイアスが解消されない可能性があります。
 ・公平性を担保するには、センシティブ属性を分析に含めて、その影響を積極的に検出し、是正する方法(例: 公平性の指標を導入)を採用するべきです。

他の選択肢の妥当性:
① LGBTに関する情報収集の倫理的課題:
 ・適切です。
 LGBTに該当するかを判断する情報はセンシティブな個人情報であり、その収集には倫理的および法的な注意が必要です。
② 人間による最終判断のバイアス:
 ・適切です。
 AIの公平性を担保するために人間が最終判断を行う場合、人間自身のバイアスが新たな不公平を生む可能性がある点に注意する必要があります。
④ 代理変数の影響:
 ・適切です。
 名前や大学が性別や人種などの代理変数として機能し、間接的にバイアスを生むリスクがあるため注意が必要です。

問題