革新的な対話型AI(人工知能)として利用が広がっている「ChatGPT」(チャットGPT)が、飛行士を男性的、看護師を女性的と捉えるなど、職業に対しジェンダーバイアスを持っていることが朝日新聞の分析でわかった。専門家は、適切な処置が取られないまま使われれば、性差による差別や偏見が再生産される恐れがあると指摘する。
AIは、ネット上などにある大量のデータを学習して答えを出す。このためAIの多くが、もとのデータに含まれるバイアスを反映した偏りを持つことが、東京工業大の岡崎直観教授らの研究で知られていた。ただ、昨秋に登場したチャットGPTが、どれほどのジェンダーバイアスを持つのかについての日本語の研究はなかった。
そこで朝日新聞メディア研究開発センターは、岡崎教授の監修のもと、9月段階の無料版のチャットGPT―3・5に、30職業の男女観を計3千回質問。バイアスがある回答は41・5%に上った。これは、過去に岡崎教授が調べた複数のAIと同程度だった。
一方、有料版のGPT―4に対する3千回の質問では、バイアスがある回答は22・9%に抑えられていた。無料版のチャットGPTに少なくないバイアスがあったことに対し、開発元の米オープンAIは朝日新聞の取材に「私たちはAIのバイアス対策に取り組んでおり、その狙いと進み具合は透明性を保って説明していく」などとした。
岡崎教授は「少なくないバイアスがあることが分かった。バイアスを軽減する開発が求められるだけでなく、利用する側も、AIの答えにはバイアスが含まれることを認識して使う必要がある」と話した。
東工大の分析は、米ユタ大が…
※無料期間中に解約した場合、料金はかかりません
【紙面ビューアー機能も使える】プレミアムコースが2カ月間無料!お得なキャンペーン実施中!詳しくはこちら
からの記事と詳細 ( 飛行士は男、看護師は女…ChatGPT、職業にジェンダーバイアス ... - 朝日新聞デジタル )
https://ift.tt/TjUoXpe
No comments:
Post a Comment