language
注意事項
当サイトの中国語、韓国語ページは、機械的な自動翻訳サービスを使用しています。
翻訳結果は自動翻訳を行う翻訳システムに依存します。場合によっては、不正確または意図しない翻訳となる可能性があります。
翻訳サービスを利用した結果について、一切を保証することはできません。
翻訳サービスを利用される場合は、自動翻訳が100%正確ではないことを理解の上で利用してください。

身近に潜むAIのジェンダーバイアス

Pic:竹下昌志さん

情報科学専攻メディアネットワークコース 言語メディア学研究室
博士後期課程1年

竹下 昌志 (福岡県出身、2020年度入学)

 近年の人工知能(AI)の発展は素晴らしいものですが、実は、いくつか倫理的問題があります。私が研究しているのは、AIの社会的バイアスという問題です。自動翻訳を例にします。例えば「看護師が仕事をしてると、同僚から呼ばれた。」と「医者が仕事をしてると、同僚から呼ばれた。」をそれぞれ自動翻訳サービスで翻訳すると、「A nurse was doing her job and a colleague called her.」と「An engineer was doing his job and a colleague called him.」と翻訳されます。AIは「her/his job」「called her/him」と代名詞を勝手に補完していますが、日本語の文には看護師と医者の性別を明記してないにもかかわらず、元の文の職業名によって補完される代名詞が変わってしまっています。これがAIのジェンダーバイアスです。私はこのようなAIの社会的バイアスの分析とその緩和方法を研究しています。

 私が所属する言語メディア学研究室では、自然言語処理という、コンピュータに人間の言語を理解させるための研究をしています。この研究室には知識班と音声班があり、知識班がテキストを中心に、音声班が音声を中心に研究しています。学生は興味のあるテーマを自由に選んで研究することができます。近年のAI研究の発展は凄まじく、最新の研究を追うだけでも大変ですが、その分、やりがいがあります。

 自然言語処理の研究には、言語学などの文系の学問の知識を活かした研究が多数あります。私自身も倫理学という文系の学問を勉強しながら研究に取り組んでいます。文系理系の区別なく幅広く勉強しながら研究できるのが、この研究室の魅力だと思います。