NLP2025大会委員長 船越 孝太郎(大会担当理事・東京科学大学)
同プログラム委員長 嶋田 和孝(九州工業大学)
同実行委員長 若宮 翔子(奈良先端科学技術大学院大学)
■実施概要
○会期
・チュートリアル 2025年3月10日(月)
・本会議 2025年3月10日(月)~ 13日(木)
・ワークショップ 2025年3月14日(金)
〇 開催形式・会場
NLP2025はNLP2024に引き続きハイブリッド形式で開催し,出島メッセ長崎(長崎県長崎市)を現地会場とし,全ての口頭発表セッションをZoomでオンライン中継しました.現地会場にはWi-Fiを整備し,前年に引き続き参加者Slackを通じた現地・オンライン間のディスカッションの醸成に取り組みました.
〇 参加状況
発表件数は前回大会から178件増加し777件となり,過去最高となりました.また,参加者数は前回大会か188名ほど増加し2309名となり,こちらも過去最高となりました.
・ 一般
・会員 682 (599)
・非会員 575 (600)
・ 学生
・会員 530 (490)
・非会員 185 (181)
・ 招待
・ スポンサー 323 (217)
・ 賛助会員 1 (19)
・ 講師等 13 (15)
※ ()内はNLP2024の実績値
〇スポンサー
歴代最多の103団体からご支援を頂きました.ランク別の申込数は次の通りです.スポンサー賞は11件でした.
・ダイヤモンドスポンサー 2
・プラチナスポンサー 53 (37)
・ゴールドスポンサー 18 (22)
・シルバースポンサー 30 (28)
※ ()内はNLP2024の実績値
〇 収支
大会開催前の想定を上回る参加者数ならびにスポンサー数であったため増収となりましたが,現地参加者の増加に対応するために,会場使用料・会場備品料・茶菓代やオンライン配信業務委託費などの追加にあてさせていただき,最終的には大会収支は軽微な黒字となりました.
○ プログラム概要
■本会議 (3月10日-13日)
一般セッション・テーマセッションには,昨年を上回る777件の論文投稿がありました.
■テーマセッション
公募により採択された次の6件のテーマセッションが本会議中に開催されました.
・金融・経済ドメインのための言語処理(17件)
・人とAIの共生に向けた対話システム・言語使用の研究(16件)
・認知・脳と自然言語処理(17件)
・人狼知能:噓を見破り説得する会話ゲームとLLM(4件)
・言語とコミュニケーションの創発(11件)
・人文学と言語処理(21件)
■ワークショップ (3月14日)
公募により採択された次の3件のワークショップが開催されました.いずれも多くの参加者が集まり,濃密な議論が行われました.
・LLM時代のことばの評価の現在と未来(全日)
・大規模言語モデルのファインチューニング技術と評価(全日)
・日本語言語資源の構築と利用性の向上(全日)
■チュートリアル (3月10日)
以下の4つのテーマについてチュートリアルを実施しました.
・言語モデルの内部機序:解析と解釈/Benjamin Heinzerling 先生(理化学研究所/東北大学)・横井 祥 先生(国立国語研究所/東北大学/理化学研究所)・小林 悟郎 先生(東北大学/理化学研究所)
・地理情報と言語処理 実践入門/松村 結衣 先生(株式会社Helpfeel/UN Smart Maps Group)
・ことばの意味を計算するしくみ/谷中 瞳 先生(東京大学/理化学研究所)
・人工知能の哲学入門/鈴木 貴之 先生(東京大学)
■招待講演(3月11日・13日)
次の2名の先生をお招きしました.招待講演はYouTube Liveによる一般配信も実施しました.
・坂井 美日 先生(鹿児島大学)
生成AIを活用した九州・琉球の言語継承支援に資する方言対話システムの開発 ―現状と課題
・堀川 友慈 先生(NTTコミュニケーション科学基礎研究所)
脳からの意味情報解読で探る視覚と言語の境界線
■招待論文講演 (3月10日)
会誌「自然言語処理」に発表された論文の中から選出された以下の5件の論文についての発表が行われました.
・クイズコンペティションの結果分析から見た日本語質問応答の到達点と課題
有山 知希,鈴木 潤,鈴木 正敏,田中 涼太,赤間 怜奈,西田 京介
・文書レベル関係抽出における根拠認識の統合
Youmi Ma,An Wang,岡崎 直観
・言語モデルの第二言語獲得
大羽 未悠,栗林 樹生,大内 啓樹,渡辺 太郎
・アスペクトを考慮した日本語時間推論データセットの構築
杉本 智紀,尾上 康雅,谷中 瞳
・未知の知識に対する事前学習済み言語モデルが持つ推論能力の調査
坂井 優介,上垣外 英剛,林 克彦,渡辺 太郎
■スポンサーイブニング(3月10日)
スポンサーと参加者との交流を目的として,スポンサーイブニングとスポンサー交流会を開催しました.多くの方にご参加いただき,参加者とスポンサー間の交流で盛り上がりました. スポンサーの歓待と参加者の呼び込みのため,合間に長崎の龍踊を挟みました.
■懇親会(3月12日)
長崎港の夜景を楽しんでいただける長崎出島ワーフで開催しました.例年定員に達し参加したくてもできない方が多数いるため,例年より多い800名が参加できる会場を用意しつつ,参加費も低めに設定しました.
〇 総括
今大会は地方開催のために参加者が減少することも見込まれた中で,大幅な参加者・発表者の増加となりました.喜ばしい一方でこれまでの大会の実施形態が限界に近づきました.また昨年に比べ,これも本来喜ばしいことではありますが,聴講者(非会員参加)より発表者(会員参加)の増加割合が大きく,大会の参加費収入の伸びは限定的でした.この点については,同時になされたスポンサー料の値上げにより相殺され,会計収支は若干の黒字となりました.これまでの積み重ねにより,参加登録システムもほぼ安定し,ハラスメント事案もなく,恙無く開催できました.
最後に,今大会を支えていただきました参加者・発表者・座長・スポンサー団体の皆さま,招待講演・チュートリアルの講演者の皆さま,現地開催をご支援いただいた長崎国際観光コンベンション協会および出島メッセ長崎の皆さま,実行委員会・プログラム委員会・渉外担当・大会秘書・業務委託関係先の皆さまに心よりお礼申し上げます.
第31回年次大会プログラム委員長 嶋田和孝(九州工業大学)
言語処理学会年次大会の優秀賞は,年次大会において論文の内容が優れていると認められた発表論文に与えられる賞です.また,優秀賞のうち特に優れたものがあれば,最優秀賞として選定されます(言語処理学会年次大会優秀賞規定).同様に若手奨励賞は,年次大会において論文の内容が優れていると認められた発表論文に関して,以下の条件を満たす著者に与えられる賞です(言語処理学会年次大会若手奨励賞規定).
・年次大会開催年の4月1日において満30歳未満のもの
・当該論文の第1著者であること
・過去に若手奨励賞を受賞していないこと
・ある論文が優秀賞を受賞する場合は,その論文の第1著者は若手奨励賞の対象とはならない
近年の年次大会の場合と同様に,今大会においても大会の開始前に全論文を対象に審査を行い,授賞論文・著者を決定し,大会のクロージングにて表彰します.
賞選考のための内規では,
・優秀賞は全発表件数の約2%を目安とする
・優秀賞の中で特に評価の高いものを0件から2件の範囲で最優秀賞とする
・若手奨励賞は対象論文のうち最大4%程度を目安に選出する
としております.
今大会での対象論文は765件(前大会599件.投稿数は777件だが,12件は論文誌掲載ポスターのため選考から除外)であり,優秀賞の授賞件数は全体の約2%(15.3)にあたる15件を目安としました.また若手奨励賞の対象となる論文は487件(前大会427件)でした.受賞件数はこの4%程度(19.48)にあたる19件~20件を目安としました.
年次大会優秀賞・若手奨励賞の選考にあたっては,選考委員会を組織し,慎重な議論を重ねた上で選定を行いました.今回,選考委員会は計284名(前大会271名)で構成されました.各授賞論文には議論で合意された授賞理由が付記されます.授賞の最終的な責任はプログラム委員長の嶋田が負います.
賞選考は「論文審査」と「最終選考」の二段階で行いました.論文審査に先立ち,投稿カテゴリにより全ての論文を5つのグループ(A,B-1,B-2,C-1,C-2)に分けました.グループ毎に,そのグループの研究分野を専門とする選考委員を各論文に対し4名割り当て,審査を行いました.審査委員はそれぞれ最大12件の論文を担当し,各論文に対して,総合評価(6段階),新規性(5段階),有用性(5段階),読みやすさ(5段階)の観点から審査しました.この際,優秀賞に推薦する論文については推薦理由を記述するようお願いしました.また,前大会と同様,若手奨励賞のための推薦項目は設けず,優秀賞と若手奨励賞の選考は同じ総合評価の点に基づいて行いました.
論文審査終了後,最終選考を行いました.選考委員は,嶋田和孝(九工大:プログラム委員長),三輪誠(豊田工大:副プログラム委員長),高村大也(産総研:前プログラム委員長),内海慶(SB Intuitions:大会賞担当プログラム委員)の4名です.最終選考では,原則として,論文審査において審査員が与えた総合評価の点数の高い論文を授賞論文として選びました.4名の最終選考委員のうち,授賞のボーダーライン付近にCOIのある論文があったときは,COIのない選考委員で授賞論文を決めました.
最終選考では,まず優秀賞を決定しました.最初に,審査員による評価点のばらつきを抑えるために,一般化線形混合モデルを用いて総合評価の点を補正しました(以下では,補正後の評価点を単に「評価点」と呼びます).その評価点が高い論文に対し,審査員の推薦理由をチェックして受賞するにふさわしい論文であることを確認し,上位15件の論文を優秀賞として選びました.なお,15位と16位の間に評価点に差があり,審査員のコメント内容を踏まえて,ここを境界としました.次に,これら15件のうち,1位と2位の論文の評価点に大きな差があったことから,上位1件の論文を最優秀賞として選びました.
次に,若手奨励賞を決定しました.優秀賞受賞論文ではなく,かつ若手奨励賞の受賞資格を満たす論文について,評価点が高い論文から順に,審査員の推薦理由をチェックして受賞するにふさわしい論文であることを1件ずつ確認し,上位20件の論文を若手奨励賞として選びました.若手奨励賞の授賞件数の目安は19~20件ですが,19位と20位の間の差が小さかったため,今大会では20件に対して若手奨励賞を授賞することにしました.
以下は,最優秀賞,優秀賞,若手奨励賞の論文とその授賞理由です.
*言語処理学会第31回年次大会 最優秀賞(1 件:発表番号順)
B4-6 作業記憶の発達的特性が言語獲得の臨界期を形成する
三田 雅人 (東大/サイバーエージェント), 吉田 遼, 深津 聡世, 大関 洋平 (東大)
本論文では,言語獲得効率における理論である「臨界期仮説」に着目し,臨界期に相当する時期の「作業記憶」を制限し,学習の過程で指数関数的に制限を緩めるような言語モデルを設計し,これが学習効率にどのような影響を与えるかを分析しています.言語モデルにはGPT-2を利用し,文法評価ベンチマークデータを用いて評価しています.制限をしない場合や線形に制限を緩める場合などと比較し,制限があることや指数関数的緩和が重要であることを示しています.アイデアが独創的で興味深い研究であり,自然言語処理にも認知科学にも重要な知見が含まれており,最優秀賞にふさわしいと判断しました.
*言語処理学会第31回年次大会 優秀賞(14件:発表番号順)
E1-1 クレオールは計量的に峻別できるか?
川崎 義史 (東大), 永田 亮 (甲南大), 高村 大也 (産総研), 大谷 直輝 (東京外大)
本論文では,テキストデータから得られる計量的な特徴により,クレオールと非クレオールを峻別できるかを検証しています.具体的には,順位頻度分布や要素の大きさ(単語長と節長),語彙の豊富さなどの指標を用いて,これらの大小によって,クレオールと非クレオールとを大別できることを示しています.手法は単純でありながら,興味深い結果を導いています.また,上層言語とレンマ化による仮想言語との関係から,クレオールの単純説が部分的に支持されることも示しています.これらは言語学的にも有効な知見であり,優秀賞にふさわしいと判断しました.
D1-4 ベイズ教師なし文境界認識
内海 慶 (SB Intuitions), 持橋 大地 (統数研/国語研)
本論文では,文境界を教師なし学習によって推定する手法を提案しています.テキスト中の各文字にそこが文境界であるかを表す二値の潜在変数があると仮定し,それを推測するタスクとして定式化しています.改行などの情報を事前分布として有効に利用しつつ,シンプルで精度の高い文境界推定が可能になっています.文境界の推定はSNSなどを対象とした自然言語処理の際に重要な前処理であると考えられ,提案手法は,幅広く使える有効な手法であると思われます.手法の高速化を含め,有用性や実用性が高く,優秀賞にふさわしい研究であると判断しました.
P1-7 テキスト生成における最小ベイズリスク復号の理論的な理解に向けて
市原 有生希 (NAIST), 陣内 佑, 蟻生 開人, 森村 哲郎 (サイバーエージェント), 内部 英治 (ATR)
本研究は,最小ベイズリスク復号 (MBR) において,高品質な出力を得るための有効な手法であることを数理的観点から証明を行っています.具体的には,モデルの分布に基づくモンテカルロ法を用いたMBRと真の解との性能差が,参照仮説集合の大きさによって縮小できることを示しました.本研究は大規模言語モデル隆盛の時代に必要とされる技術であり,発展性および応用可能性が高いと考えられるため,優秀賞にふさわしい論文と判断しました.
P2-4 ウェーブレット位置符号化
岡 佑依, 長谷川 拓, 西田 京介, 齋藤 邦子 (NTT)
本研究は,位置符号化手法の一つであるRoPEがウェーブレット変換の一種とみなせることを示した上で,ウェーブレット変換を用いた新しい位置符号化を提案しています.既存手法を一般化したうえで機能を拡張しており,その効果を実際に言語モデルの学習に利用した実験でも確認しています.また,外挿が可能となることで追加の再学習が不要となり,最大系列長拡張の学習コスト低減という産業上の課題解決にも貢献が期待できるなど,有用性も高く評価できることから,優秀賞にふさわしい論文と判断しました.
Q2-4 llm-jp-judge: 日本語LLM-as-a-Judge評価ツール
中山 功太, 児玉 貴志, 鈴木 久美 (NII), 宮尾 祐介 (NII/東大), 関根 聡 (NII)
本研究は,日本語におけるLLM-as-a-Judge評価を統一的に扱うためのツールとして,llm-jp-judgeを提案しています.また,品質評価,および,安全性評価においてLLM-as-a-Judgeと人手評価の比較を行うメタ評価を行い,多くの項目において両者の間に高い相関があることを明らかにしました.これにより,llm-jp-judgeの評価結果の信頼性が担保されていると考えられます.これらの理由より,本研究は今後のLLM開発において有用なツールになると考えられるため,優秀賞にふさわしい論文と判断しました.
P2-12 部分空間の擬似直交性によるTransformer言語モデルの内部表現の解釈
前田 晃弘 (JAIST/日本学術振興会), 鳥居 拓馬 (東京電機大), 日髙 昇平, 井之上 直也 (JAIST), 大関 洋平 (東大)
本論文では,直交性の定義を緩めた疑似直交という概念を導入し,アテンション層およびFFN出力層の部分空間の幾何的関係を分析しています.FFN層が概念を表現するベクトル(コンセプトベクトル)を事前学習しており,FFN 層の出力がTransformer の内部状態の文脈化を担っている可能性を実験を通して示しています.理論と実例による両面での検証がなされており,有用な知見を多く含んでいます.これらの理由により,本論文は,今後のTransformerの内部の解明・解釈に大いに役立つと考えられるため,優秀賞にふさわしいと判断しました.
A4-5 コーパスの逆蒸留
盧 慧敏 (東大), 磯沼 大 (東大/エディンバラ大/NII), 森 純一郎 (東大/理研), 坂田 一郎 (東大)
本研究は,大規模言語モデルにおいて,ある学習データがもたらすモデルの変化と逆の変化をもたらす学習データを生成する学習データ逆蒸留を扱っています.提案手法は対照的デコーディングに基づく軽量な手法であり,有害性除去の実験でその有効性を検証しています.大規模言語モデルの実応用において重要な技術であると同時に,手法の汎用性も高く,優秀賞にふさわしいと判断しました.
Q4-10 モデル拡張によるパラメータ効率的な LLM の事前学習
矢野 一樹 (東北大), 伊藤 拓海 (東北大/Langsmith), 鈴木 潤 (東北大/理研/NII)
大規模言語モデルの事前学習には膨大な計算リソースが必要とされます.本論文では,大規模言語モデルの事前学習において,モデル拡張とパラメータ効率の良い調整手法の2つの手法を組み合わせた手法STEPを提案しています.実験によって,提案手法が必要な最大メモリ要求量を最大53.9%削減しながら,事前学習の評価タスクと学習したモデルを微調整する下流タスクいずれにおいても,通常の事前学習と同等の性能を達成できることを示しています.2つの手法を組み合わせるという着眼点の新規性と高い発展性,より効率的に大規模言語モデルの事前学習を実施するという重要な課題に取り組んだ有用性から,優秀賞にふさわしいと判断しました.
C6-3 難易度調整可能な多枝選択式読解問題自動生成手法とDirect Preference Optimizationによる難易度調整精度の向上
富川 雄斗, 宇都 雅輝 (電通大)
本研究は,Llama 2を用いて難易度調整可能な多肢選択式問題を生成する手法を提案し,Direct Preference Optimization(DPO)による難易度調整精度の向上を実証しています.RACEデータセットを用いた評価により,提案手法の有効性が確認され,Few-shot学習では難易度調整が不十分であることを示した点も意義深いです.また,69のQAシステムを仮想回答者とする実験設計は,人的コストを削減しつつ多様な検証を可能にする新しい研究手法として注目に値します.DPOを活用した難易度調整の試みとその有効性を示した点を高く評価し,本研究は優秀賞にふさわしいと判断しました.
D6-5 音素の合成性を仮定した連続信号をサインとした分散的ベイズ推論に基づく記号創発
齋藤 一誠, 劉 智優, 長野 匡隼, 中村 友昭 (電通大), 谷口 彰 (立命館大), 谷口 忠大 (京大)
記号創発研究ではサイン自体の生成・認識能力の学習過程はこれまであまり取り組まれてきませんでした.本研究では,音素の組み合わせから単語を形成する過程に焦点を当てるとともに,連続信号をサインとして用いた記号創発モデルという独創性の高い提案を行っています.また,その優位性を実験結果で示した上で提案手法の課題と次の研究の方向性についても触れており,今後の発展にも期待できることから,優秀賞にふさわしい論文と判断しました.
Q6-25 意思決定を指標とする生成テキスト評価:アマチュアと専門家への影響分析
高柳 剛弘 (東大/産総研), 高村 大也 (産総研), 和泉 潔 (東大), Chung-Chi Chen (産総研)
本研究は,アマチュアと金融の専門家の投資の意思決定に対するLLM生成テキストの影響の違いについての分析を行っています.分析の結果,アマチュアは専門家と比較してよりLLM生成テキストの影響を受けることを明らかにしました.また,LLM生成テキストによって予測能力が低下することや,強い意見表現を含むプロモート文は専門家にも影響があることなども示されました.本研究ではLLM生成テキストの抱えるリスクについても指摘しており,今後のLLM開発における社会的責任を果たすうえで重要な知見を示唆していると考えられるため,優秀賞にふさわしい論文と判断しました.
A7-4 大規模言語モデルにおけるIn-context Learningの推論回路
趙 羽風, 加藤 万理子, 坂井 吉弘 (JAIST), 井之上 直也 (JAIST/理研)
本研究は,大規模言語モデルにおけるin-context learning (ICL)の内部機序を分析したものです.具体的には,ICLの推論を三つの基本操作に分解し,それぞれの基本操作の役割を実験的に分析すると同時に,それらが構成する推論回路のICLにおける重要性を示しました.ICLの内部機序の理解を一歩進めた研究であり,今後の関連研究の発展にも寄与すると考えられ,優秀賞にふさわしいと判断しました.
Q9-2 言語のインクリメンタルな処理の仕組みは普遍的か?:投機性によるparsing strategy再考
石井 太河, 宮尾 祐介 (東大)
本研究は,構文解析における Top-down と Bottom-up の二つの parsing strategy の違いを「投機性」と捉え,パラメタ化する一般化を提案しています.具体的には,構文木の各ノードを予測する際に「子の何割が作られてから親を作るか」を投機性パラメタとして制御を行えるようにし,その上で,10言語における次トークン予測と構文解析の比較実験を通じて言語による投機性の違いなど興味深い知見や,教師なし構文解析モデルの精度が低い理由を説明する仮説を提示しています.計算言語学的な観点からも意義のある研究だと考え,優秀賞にふさわしい論文と判断しました.
C10-5 大規模言語モデルの再パラメタ化に基づく初期化による損失スパイクの抑制
西田 光甫, 西田 京介, 齋藤 邦子 (NTT)
大規模言語モデルの事前学習において,損失関数の値が突然発散してしまう損失スパイクは重要な課題です.本論文では,パラメータの更新比率の違いに着目し,その更新比率の不均一性を解消するための共通の標準偏差とゲートパラメタを利用した初期化による損失スパイクの抑制手法を提案しています.実験によって,損失スパイクの抑制と従来の初期化手法と比べた際の言語モデルとしての性能向上を示しています.本手法は,シンプルながら有用性は高く,また,ライブラリ互換性も損なわないため導入ハードルも低く,今後の大規模言語モデルの開発に大きな影響を与える可能性があると考えられることから,優秀賞にふさわしいと判断しました.
*言語処理学会第31回年次大会 若手奨励賞(20件:発表番号順)
P1-19 ニューラルかな漢字変換システム Zenzai
三輪 敬太 (東大/Turing)
かな漢字変換は最も身近で実用されている自然言語処理技術の一つです.本研究は,かな漢字変換に Transformer Decoder ベースの言語モデルを適用した手法を提案し,高い変換精度を達成しています.また,ニューラルかな漢字変換の課題である推論速度の問題に対し,統計的かな漢字変換をドラフトモデルとして利用し数ステップ分の候補トークンを高速に予測しておくことで,Transformer Decoder モデルの出力と一致することを保証しつつ並列処理を可能にして対処するなど,実用性の面でも高く評価できることから,若手奨励賞にふさわしい論文と判断しました.
P2-8 Transformer LLMにおける層単位のFFN層の重要度検証
池田 航(東北大)
本研究は,Transformerの構成要素の一つであるフィードフォワードネットワーク (FFN) に着目し,モデル内の配置場所に依存した重要度の検証を行っています.具体的には,中間から後半の層に FFN を集中的に配置することで精度が向上するという新たな知見を示しました.TransformerはLLMにおける基礎的な技術であり,本論文のFFNの役割の調査は今後のTransformerの新たなアーキテクチャの提唱や実行の効率化に繋がると考えられるため,若手奨励賞にふさわしい論文と判断しました.
P3-3 IMPARA-GED:言語モデルの文法誤り検出能力に着目した文法誤り訂正の参照文なし自動評価
坂井 優介 (NAIST)
本研究は,参照文なしで文法誤り訂正(GEC)を自動評価する手法として,IMPARA-GEDを提案しています.文法誤り検出能力を強化した事前学習済み言語モデル(PLM)を活用し,品質推定モデルを構築することで,従来手法より高精度な評価を実現しました.SEEDAデータセットを用いた評価実験では,特に文単位の人手評価と最も高い相関を示し,実用性の高さが確認されました.さらに,window-analysis により,上位システムの評価性能が向上していることも示されました.新規性のある手法の提案と綿密な実験による検証を高く評価し,本研究は優秀賞にふさわしいと判断しました.
Q3-23 llm-jp-eval-mm: 日本語視覚言語モデルの自動評価基盤
前田 航希 (科学大/NII)
本研究は,日本語性能に関する複数のマルチモーダル課題を統一した環境で評価するためのツールキット llm-jp-eval-mm の提案を行っています.さらに,ツールキットの公開に加えて,継続的な開発のための設計概要および多数の VLM を評価した結果を報告しています.日本語を対象とするVLMの評価基盤が整っていない中,共通的に利用できるツールの整備を進めた点で有用性が高いことから,若手奨励賞にふさわしい論文と判断しました.
Q4-3 Ruri: 日本語に特化した汎用テキスト埋め込みモデル
塚越 駿 (名大)
本研究は,日本語汎用テキスト埋め込みモデル Ruri の提案を行っています.Ruriでは,訓練データの不足を補うためのLLMによる合成データ生成,対照事前学習による訓練,そして高品質データを用いたチューニングを実施し,モデルと学習データを併せて公開しています.モデル・データ・手法を併せて公開することは有用性が非常に高く,NLPコミュニティへの貢献が認められると考えられるため,若手奨励賞にふさわしい論文と判断しました.
B4-5 言語モデルの事前学習におけるバリエーションセットの効果
芳賀 あかり (NAIST)
本研究は,子供向けの発話が言語モデルの学習効率を向上させることができるというアイデアのもとに,言語モデルの事前学習においてバリエーションセットの効果の検証を行っています.子供と言語モデルの言語獲得の共通点を指摘したうえで,バリエーションセットを用いることで,文構造の理解に加え自然言語理解能力の向上に有益な影響を与える可能性を明らかにしました.本研究は効率的言語モデルの学習において興味深い示唆を与えると考えられるため,若手奨励賞にふさわしい論文と判断しました.
P4-7 認知負荷の最適化戦略としての自由語順と項省略
梶川 康平 (東大/国語研)
本論文では,日本語における自由語順と項省略が言語コミュニケーションの効率性に及ぼす影響を検証するために,自由語順と項省略の有無を制御したコーパスを作成し,記憶と予測における処理負荷の観点から比較分析をしています.その結果,自由語順かつ項省略が存在する言語は,記憶と予測の負荷を抑制する点で有利であることを明らかにしています.本研究は,言語コミュニケーションの特性を理解する上で重要な知見を提供しており,今後の発展も期待できることから,若手奨励賞にふさわしい論文と判断しました.
P4-21 言語モデルのふるまいと多重実現
坪井 祥吾 (一橋大)
本研究は,言語モデルを用いた言語学的研究の正当性について,科学哲学の「多重実現」という概念を導入し,理論的に検討しています.言語モデルと人間の言語処理の違いを踏まえた上で,得られた知見をどのように人間に外挿できるかを整理し,研究手法の妥当性を評価するためのフレームワークを提案しています.このような哲学的・概念的な視点からの分析は,言語モデル研究の基盤を強化する上で重要であり,今後の議論にも大きく貢献すると考えられます.理論的に有意義な枠組みを提供する点を高く評価し,本研究は優秀賞にふさわしいと判断しました.
A5-1 層の冗長性と層同士の独立性に基づく言語モデルの層交換の成否の特徴づけ
小林 春斗(東北大)
本論文では,ニューラル言語モデルにおいて,層の交換が可能な場合が存在するという現象について,層の冗長性と層同士の独立性という2つの観点から層の交換可能性の尺度となる指標を提案しています.指標が十分に小さいことが層を交換できることの必要条件となっていることを理論的に示すとともに,学習済みのGPT-2を用いた実験において指標が層同士の交換のしやすさを予測できることを示しています.本研究は独創性も高く,モデル結合の研究に影響を与え,発展させる可能性のある研究であることから,若手奨励賞にふさわしいと判断しました.
P5-10 判決書要約文の自動評価
新保 彰人(科学大)
本研究は,法律の専門家と協力しつつ,判決書要約文に特化した評価ルーブリックの策定と,評価リールブックに基づくデータセットの構築,LLMベースの自動評価器の構築を行っています.評価実験の結果,LLMベースの自動評価器は人間と同程度の性能を示しています.本研究は判決書要約における有用な知見を発見したのに留まらず,今後異なる専門ドメインに特化した自動要約研究にも参考になる研究と考えられるため,若手奨励賞にふさわしい論文と判断しました.
A6-2 大規模言語モデルにおいて数値属性間で共有されるスケーリングベクトルの解析とその応用
峰岸 剛基(東大)
本論文では,大規模言語モデルの内部表現空間における数値操作を対象に,異なる数値属性間に共通する方向成分「スケーリングベクトル」の存在について分析しています.分析では,部分的最小二乗法やスピアマン相関を用いて,「スケーリングベクトル」の存在を示している.また,介入により他属性への副作用が生じる可能性やfew-shotプロンプティングにおいて異なる属性間での交絡から出力に副作用が生じる可能性を示しています.これらの分析結果は,大規模言語モデルの解釈性向上や制御手法の開発において有用な知見であり,今後の発展が期待できることから,若手奨励賞に値する論文と判断しました.
Q6-15 Wikidataに基づく大規模ジオコーディングデータセット
中谷 響 (NAIST)
本研究は,場所を表す言語表現を地理データベースの適切なエントリと紐付け,地理座標を出力するモデルのための大規模データセットの構築を行っています.具体的には,WikipediaとWikidata を紐づけて収集することによって自動構築を可能にしています.ジオコーディングは災害管理や疾病監視など社会的に意義のある研究であり,本データセットが分野の発展に期待できることから,若手奨励賞に値する論文と判断しました.
A7-2 埋め込み表現の独立成分の言語内・言語間一貫性の分析
飯森 栄治 (東大)
本研究は,単語埋め込み表現から抽出された独立成分の言語内および言語間の一貫性を分析したものです.具体的には,独立成分分析を複数回実行して得られた結果をクラスタリングし意味軸の再現性を調査し,さらに言語間の意味軸の一貫性を統計的に分析しています.単語埋め込み表現が持つ情報に関する有用な知見を提供すると同時に,分析の方法論としての発展性も高く,若手奨励賞にふさわしいと判断しました.
A7-3 構成的汎化におけるTransformerの内部機序の分析
九門 涼真 (東大)
本論文では,構成的汎化におけるTransformerの内部機序に関して分析をしています.subnetwork probingを用いて,構成的汎化タスクを高い精度で解くサブネットワークを特定し,ベースモデルと発見されたサブネットワークについて,機械翻訳と意味解析においてどの程度統語的特徴に依存しているかという観点で分析しています.統語的特徴が完全に削除された場合に汎化精度が極端に低下することなど,機械翻訳や意味解析における統語的特徴への依存が実験的に示されています.内部機序の解明という挑戦的なタスクに丁寧な実験と分析が行われており,若手奨励賞にふさわしいと判断しました.
P7-25 ダイアグラム理解に向けた大規模視覚言語モデルの内部表現の分析
吉田 遥音 (東北大)
本論文では,大規模視覚言語モデル(LVLM)のダイアグラム理解能力を解明するために,その内部表現をプロービングに基づいて詳細に分析しています.具体的には,LVLMがどのように視覚情報を認識し,それらをどのように保持しているのかをモデルの各層ごとに検証しています.実験はデータセットの構築を含め慎重に設計され,ダイアグラムのノードの色や形,エッジの色や有無に関するLVLMの内部状態を明らかにしています.本論文で得られた知見は,LVLMのダイアグラム理解能力の向上や内部機序の解明において重要であり,今後の発展にも期待できることから,若手奨励賞にふさわしいと判断しました.
Q8-15 Sparse Autoencoders as a Tool for Steering the Output Language of Large Language Models
Sebastian Zwirner(早大)
本研究は,sparse autoencoderを用いて,大規模言語モデルの出力言語に関連づいた特徴量を抽出し,その値を変化させることで出力言語を制御することを提案しています.提案手法は,単一のニューロンにより制御する既存手法より,出力言語の制御および言語生成性能で上回ることが実験で示されています.直感的でシンプルかつ発展性も高いことから,若手奨励賞にふさわしいと判断しました.
E9-2 Cognitive Preference Optimization: 脳情報による言語モデルの選好最適化
原田 宥都 (東大)
本論文では,人間がテキストを読む際の脳波情報を活用して大規模言語モデルの選好最適化を行う手法を提案しています.提案手法は,人間がテキストに対して直接ラベル付けを行うのではなく,脳波情報から推定された選好情報を利用するため,従来の人手による選好最適化のためのラベル作成のコストを大幅に削減することが期待されます.評価実験では,脳波に基づいた認知フィードバックを用いた選好最適化の妥当性を検証しています.大規模言語モデルの選好最適化に人間の認知情報を活用した独創的なアプローチであり,今後の発展に期待できることから,若手奨励賞にふさわしい論文であると判断しました.
A9-6 事例ベース意思決定理論に基づく復号
出口 祥之 (NTT)
本論文は,従来のMBR復号のドメイン適応性の課題に対処するために,事例ベース意思決定理論(CBDT)に基づく復号手法を提案しています.提案手法は,過去の類似事例を活用することで,ドメイン特有の知識や情報を反映した高品質な翻訳を実現します.実験では,CBDT復号がMAP復号を上回り,MBR復号と組み合わせることでテキスト生成のさらなる品質向上が可能なことを示しています.テキスト生成のドメイン適応という実務上重要な問題を扱っており,様々なドメインに対する適用可能性も示されており、高い汎用性と実用性を備えていることから,若手奨励賞にふさわしい論文であると判断しました.
Q9-6 大規模言語モデルを用いたシフト還元型句構造解析
中根 稜介 (科学大)
本研究では,LLMでシフト還元法の動作を学習・予測することで句構造解析を行う手法を提案しています.提案手法では明示的にスタックとキューを持つことなく,解析位置を表すタグを用いることで解析済みの結果と残りの入力系列を暗黙的にスタックとキューとして扱っており,それによって予測時に常に文全体を参照することを可能としています.これによって seq2seq で直接S式を予測する手法と比較して,ドメインや入力系列長に対する頑健性を達成しています.以上の理由から,本論文は若手奨励賞にふさわしいと判断しました.
E10-5 Triple-Phase Transition: 脳との関係から捉える大規模言語モデルの学習ダイナミクス
中木 裕子(阪大/NICT)
本研究は,大規模言語モデル(LLMs)の学習過程における相転移現象を,ヒト脳活動との対応関係から解釈する独創的な試みを行っています.従来の研究では学習済みLLMsと脳活動の類似性が議論されてきましたが,本研究は学習過程そのものに着目し,3段階の相転移を明らかにしました.このアプローチは,LLMsの内部構造の解釈を深めるだけでなく,神経科学との新たな接点を生み出す可能性を秘めています.コミュニティにとって示唆に富む研究であり,その独創性と貢献度を高く評価し,本研究は優秀賞にふさわしいと判断しました.