自然言語モデルの発展に伴う新たな課題とは
本ページにはプロモーションが
含まれていることがあります

かつての言語モデルは、Web上の記事をカテゴリ分けしたり機械翻訳を行ったり、といった処理が主で、できることも限られていました。
しかし最近では楽譜や文章の作成、ソースコードの生成まで、幅広い処理ができるようになっています。
しかし性能が向上したことに伴い別の課題も出てきました。
これまでの「できることを増やす」「より効率的に処理する」といった観点ではなく、「してはいけないこととは何か」を考えるということです。
ここでは特に論じられることの多い「公平性」と「モデルサイズ」に言及していきます。
AI・データサイエンス、機械学習の
実践力を高めたい方へ
- プログラミングを0から学びたい
- データサイエンティスト、データアナリストを目指したい
- AIエンジニア、大規模言語モデル(LLM)エンジニアを目指したい
AI人材コースを
無料体験してみませんか?
無料で120以上の教材を学び放題!
理解度を記録して進捗管理できる!
テキストの重要箇所にハイライトを残せる!
割引クーポンやsale情報が届く!
1分で簡単!無料!
▶無料体験して特典を受け取る
40時間以上の動画講座が見放題!
追加購入不要!これだけで学習できるカリキュラム
(質問制度や添削プラン等)充実したサポート体制!
▶AI人材コースを見る
【分類と解決策】自然言語処理に残された4大技術課題とは?
自然言語処理が高度化する一方で、解決すべき課題も顕在化しています。
現在、業界で特に重要視されている技術課題は以下の4つです。
【課題1】バイアスによる公平性の欠如
- 特定の性別・人種・宗教に対する不当な評価が出力される
- 学習データに含まれる社会的偏見をモデルが学習してしまう
【課題2】特定グループへの不利益
- Amazon社の採用AIが「女性」を低評価した事例
- GPT-3が人種・宗教に関してネガティブな関連付けを生成
【課題3】モデルサイズの爆発的増大
- GPT初代(1億パラメータ)→GPT-3(1750億パラメータ)
- 学習コストが10億円超に達し、大手企業以外は研究不可能に
【課題4】計算コストとエネルギー消費
- 学習に数千台のGPU・TPUが必要
- 1000パラメータあたり約$1のコストが発生
これらの課題に対し、現在は「公平性を確保する研究」と「効率的な小規模モデルの開発」という2つの方向で解決策が模索されています。
以下では、各課題の詳細とあなたが実務で注意すべきポイントを解説しましょう。
公平性の課題
機械で行う処理であれば不公平な結果にはならないのではないか、と考える方もいるかもしれません。
しかし自然言語処理においては解析対象が人間の使う言語であるため、人間社会に潜むバイアスの影響を受けてしまいます。
処理性能が向上したことで悪い傾向も反映できるようになってしまい、昨今の課題の一つとして挙げられています。
特定のグループが不利になってしまう
具体的な問題としては「特定グループに対する不利益」が考えられます。
例えば性別や人種、宗教といった特性に左右されるモデルを使うと、それぞれのグループに対し不利な結果が出力される可能性があるのです。
この問題が顕在化した事例があります。
Amazon社の例
Amazon社では優秀な人材の検索を機械化するため、AIを使った人材採用システムを作っていました。
しかしそのシステムでは、履歴書内に「女性」という単語が含まれていることで評価が下がるように学習してしまっていたのです。
参考:Amazon scraps secret AI recruiting tool that showed bias against women | Reuters
GPT-3の例
また、文章作成能力が高く評価されている「GPT-3」でも公平性の問題が検証されています。
ここでは「女性」という単語から文章を生成すると「華やか」や「美しい」といった女性の外見に関わる単語が含まれやすい傾向が現れています。
さらに、人種・宗教に関わる単語から共起する単語の感情スコアを検証すると、「黒人」はネガティブな表現と共起しやすく、「イスラム教」は他宗教と比べ「テロリズム」という単語と共起しやすい結果が出されています。
傾向が出ること自体が常に悪ではありませんが、場合によっては好ましくない結論を導き出してしまうのです。
そこで近年は言語モデルの公平性が重要視されるようになり、単に高度な技術を使って効率化を図るのみならず、公平性を確保するための研究にも注目が集まっています。
モデルサイズの課題
言語モデルのパラメーターは年々加速的に増大しています。
自然言語処理モデル「GPT」(初代)はおよそ1億個のパラメーター数であったのに対し、2018年に提案された「BERT」では3億程度のパラメーター数です。
そこから1年後に登場する「GPT-2」では15億個、さらに、2020年に登場した「GPT-3」ではなんと1750億個ほどまで巨大化しています。
これだけ大きなモデルを作る理由はやはり「性能」です。
性能は、パラメーター数・データセットのサイズ、計算量のべき乗則に従い向上するということが実験的に示されており、性能を飛躍的に伸ばすためにモデルサイズが急増されているのです。
コストが増大してしまう
ここまでの説明を聞くとモデルサイズの増大は良いことのようにも思えます。
パラメーター数を増やし巨大なモデルを作れば様々なタスクに対応でき、より高度な処理が期待できます。
しかしながらコストの面でデメリットが生じます。
パラメーターが増えるほど学習データ量も増やさなくてはなりませんし、計算資源の稼働量も増やさなくてはなりません。
そしてその学習においては数千ものGPU・TPUを使うことになり、1000のパラメーターに対し約$1かかるとの見積もりによればGPT-3では10億円を超す計算になってしまいます。
そうすると資金の潤沢な大手企業でしか言語モデルに関する研究ができません。
そこで次の段階として、性能の向上のみならず、コストに配慮したモデルの考案が増えてきています。
実際、巨大な「汎用的自然言語モデル」でなくとも一般ユーザーのニーズを満たすことはできますし、翻訳など特定タスクに見合った小さなモデルが望まれるケースもあります。
関連記事:機械学習とは?教師あり・教師なし・ 強化学習・半教師あり学習のアプローチ法も説明
AI・データサイエンス、機械学習の
実践力を高めたい方へ
- プログラミングを0から学びたい
- データサイエンティスト、データアナリストを目指したい
- AIエンジニア、大規模言語モデル(LLM)エンジニアを目指したい
AI人材コースを
無料体験してみませんか?
無料で120以上の教材を学び放題!
理解度を記録して進捗管理できる!
テキストの重要箇所にハイライトを残せる!
割引クーポンやsale情報が届く!
1分で簡単!無料!
▶無料体験して特典を受け取る
40時間以上の動画講座が見放題!
追加購入不要!これだけで学習できるカリキュラム
(質問制度や添削プラン等)充実したサポート体制!
会員20万人突破記念!
全商品5%OFF!