
AIやロボットを通じた「言語への理解」の研究を DeepLearningSTATION II がサポート
京都大学大学院 情報学研究科 様
独自の理論である「記号創発システム」を提唱し、「人間の知能」を理解するために日々試行錯誤を続けている京都大学の谷口忠大教授。幅広い研究を進めるなかで、膨大な計算やシミュレーションの強い味方となっているのが「DeepLearningSTATION II」

独自の理論である「記号創発システム」を提唱し、「人間の知能」を理解するために日々試行錯誤を続けている京都大学の谷口忠大教授。幅広い研究を進めるなかで、膨大な計算やシミュレーションの強い味方となっているのが「DeepLearningSTATION II」である。

京都大学大学院情報学研究科
教授 谷口忠大氏
京都市に拠点を置く京都大学は、国内2番目の帝国大学として1897年に創立。これまでに築いてきた「自由の学風」を継承・発展させつつ、新たな知的価値の創出とそれを担う人材の養成によって「地球社会の調和ある共存に貢献すること」を基本理念としている。現在は10学部・18研究科を擁し、学部から大学院まで多様な教育・研究活動を展開。高度な専門性と豊かな教養を持つ人材を育成しており、これまでにアジア最多のノーベル賞受賞者を輩出するなど、世界最高水準の研究成果も生み出している。
この京都大学において、「記号創発システム」を核とする多彩な研究に取り組んでいるのが、京都大学大学院情報学研究科の谷口忠大教授である。記号創発システムは、2010年に出版された谷口教授の著書『コミュニケーションするロボットは創れるか―記号創発システムへの構成論的アプローチ』(NTT出版)において、提唱された。人間の知能を理解するうえで「言語(を含む記号)が個体や社会の活動を通してどのように形成・共有されるのか」そしてそれがいかに人間知能の基盤となるかを扱う包括的な考え方である。
この記号創発システムにおいて、谷口教授が1つ目のポイントに挙げるのは、「言語を単なるテキストデータとして捉えるのではなく、身体的な経験や知覚と結びついたものとして捉える」ことである。例えば“腕時計”という言葉を例に挙げると、その意味を理解するためには“腕時計”という単語に対して「視覚的な見た目(文字盤やベルト)やそれを実際に使う身体的な行動(腕に身に着けて時間を確認する)などと結びつける必要がある」。そして、さらに言葉の意味は個人の知覚だけでなく、社会の中で決まっていくことから、他者にも開かれている。このように身体に基づく知覚運動から、社会に広がるコミュニケーションまで垂直方向にさまざまな要素が一気通貫に繋がることこそが「知能の本質だ」と谷口教授は考える。
LLMで生じた疑問の解明には人間の知能への理解が不可欠だ
これに加えて、「言語は個人の所有物ではなく、社会で作り上げられるものである」という点も大切なポイントとなる。これは例えば新しい言葉が出てきた場合、すべてのエージェント(人間やロボット)は「その表記や発音に従わなければならないし、似た解釈を強制される」と谷口教授は説明する。
さらに、言語は「個々のエージェントが学習するだけでなく、社会全体としての学習も進む」と付け加える。谷口教授によれば、個々のエージェントの学習は以前からある程度の理解が進んでいたが、社会全体の学習については「それを理解するために数学的なモデルがこれまではなかった」そうだ。そこで、谷口教授は「集合的予測符号化(CPC:Collective Predictive Coding)」 という概念を提唱し、その理論化を進めている。
CPCは「複数の個体が分散的に予測と更新を行うことで、社会全体がひとつの推論システムとして機能する」という理論である。イメージとしては「個体が学習するのみならず社会が学習し、その社会の中に個体がいる」といったものだ。
このような記号創発システムの概念は大規模言語モデル(LLM)とも深い関わりを持つ。例えばLLMは、さまざまな個人が生み出した膨大なテキストデータを集約して学習することで、人間に匹敵するような優れた言語理解・使用が可能になる。
一方で、このLLMの概念に対して沸き上がってくるのが「LLMはなぜ、テキストデータを学習に使用することでまるで身体をもっているかのように世界を理解しているように振る舞えるのか?」や「人間社会はなぜ、現在のような言語システムを形成できているのか?」といった疑問である。このような疑問に対して、「言語は人間が生み出したものなのだから、人間の身体に基づいている」と谷口教授は考え、その解明に向けて記号創発システムを軸とするさまざまな研究に取り組んでいる状況だ。
高い満足度と拡張性が魅力・学生教育にも大きく貢献
約15年ほど前、記号創発システムそのものはやや抽象的な概念であった。これを地に足のついた形で研究を進めていくために谷口教授らがさらに提唱したのが「記号創発ロボティクス」である。これは、ロボットが環境や他者との相互作用を通じて人間のように自律的に言語(を含む記号や概念、意味など)を獲得・理解・生成していくプロセスを、ロボットを使って構成論的アプローチにより解明・実現しようとする研究分野である(詳細は、谷口教授の著書『記号創発ロボティクス 知能のメカニズム入門』(講談社選書メチエ)。)さらに、記号創発ロボティクスの研究では、例えばロボットが実世界を画像や音声で認識し、AIで判断して物理的に行動する「フィジカルAI」に取り組んでおり、そこでは膨大な計算を要する機械学習やディープラーニングが行われている。

京都大学大学院情報学研究科
助教 長野匡隼氏
また、言語モデルを使った研究についても当然取り組んでいる。例えば、複数のエージェントが言語モデルを使い、それらのインタラクションから起きる全体としての学習を「社会シミュレーション」としてみなしており、そこでも膨大な機械学習やディープラーニングが行われている。そして、これらの機械学習やディープラーニングの処理で大きな役割を果たしているのが、NVIDIAのハイエンドGPUを最大4基搭載できるジーデップ・アドバンス(以下、GDEP)のAIワークステーション「DeepLearningSTATION II」である。
谷口教授によれば、例えば言語進化の社会シミュレーションは本来であれば何億人もの人間が長い時間をかけて行う営みを計算機上で再現する必要があるため、よりリアルな条件を目指すのであれば「計算資源はいくらあっても足りない」と話す。しかし、予算は限られることから「その中で最大限のパフォーマンスを発揮できる環境を整えるとともに、知恵を絞ってその環境を活かせる研究テーマを設定することが重要ですね」と指摘する。
そういった背景があるなかで、谷口教授は2017年からGDEPのさまざまなソリューションを採用しており、DeepLearningSTATION IIについてもすでに4台を導入。定番商品を選ぶように「何かあればまずはGDEPさんにお願いします」と厚い信頼を寄せる。さらに、谷口教授の研究を支える長野匡隼助教も「DeepLearningSTATION IIの満足度はとても高いです。導入後の運用もスムーズで問題もなく、担当の入江さんの対応も丁寧ですね」と笑みを見せる。

研究室に設置された3台のDeepLearningSTATION II
また長野助教は、DeepLearningSTATION IIの魅力として「拡張性の高さ」を挙げる。これは、後からGPUのみを購入して追加するケースが普通にあり得るからだ。計算資源を最大限に有効活用という意味でも「拡張性はとても重要です」と語る。さらに、長野助教は筐体内部の「配線の美しさ」が個人的なお気に入りとのこと。配線の状況はエアフロー(冷却効率)に直結し、故障のリスクにも大きく関わってくることから、安定した研究環境の構築にひと役買っている。
そのほか、クラウドサービスが充実する昨今にあって、長野助教は「GPU処理を行う“実機”が手元にあること」の重要性も強調。現在はDeepLearningSTATION IIを研究室の一角に設置しており、学生への技術的な教育(SSH接続やPCの物理的な構造への理解など)の観点で「とても助かっています」と付け加える。
実(成果)だけに注目するのではなく幹(基盤)をしっかり育てることが重要

フィジカルAIの一環としてアームロボットを遠隔で人間が操作し、その動きのデータを収集・解析する研究にも取り組んでいる
現在、さまざまな研究に取り組んでいる谷口教授は、「大学の教育研究は農業(第一次産業)である」と表現する。これは、例えばリンゴの木を育てて実ったリンゴを出荷すると経済的な価値を得られるわけだが、これを踏まえて「あなたはなぜリンゴの木を育てるのか?(=なぜその研究をしているのか?)」と問われた場合に、近視眼的な人が「経済的な価値を持つリンゴの実だけに注目する」という点を問題視する。
アカデミアの立場で知の体系を構築している谷口教授は「リンゴの木があれば、いろいろな目的を見出せる」と説き、例えば「成長した木に登って遊ぶ子供がいればそこにも価値が生まれるし、枯葉を集めて焚き火することにも価値がある」と解説する。さらに、木を育てても「1年や2年ではリンゴが実らない」というケースがあるほか、実らなくても「水やりを止めるわけにはいかない」という点にも触れ、だからこそ「“幹”をしっかり育てていくことが重要です」と訴える。
このような意識を持ちつつ、記号創発システムの研究の広がりから「自分の定年までに研究が終わらないかもしれません」と冗談めかして笑う谷口教授。記号創発システムを生涯のライフワークに位置づける谷口教授が、今後の研究を後押しする技術革新として期待するのが「LLMのハードウェア化」である。これは例えば、低電力で動くLLM特化型の「LLMチップ」のようなものが開発され、ロボットだけでなくあらゆる家電にも手軽にLLMを組み込めるような未来を創造。これがフィジカルAIや社会シミュレーションなどの研究にもつながっていけば「とても嬉しいですね」と期待を込めた。
京都大学大学院 情報学研究科 様の使用モデル

DeepLearningSTATION II
DeepLearningSTATIONIIは、LLMなどの大規模AI学習での利用を想定したBlackwellアーキテクチャ「RTX PRO 6000シリーズ」を最大4枚搭載しています。
独自のケース設計により優れた冷却性能と静音設計で、快適な作業環境を提供。高性能で拡張性が高く、研究開発や産業用途に最適です。
また、100V-15A入力の高性能電源を2基搭載したDual PSU構成によりトータル理論値で3000Wの消費電力にまで対応するため、サーバールームなど特別な電源環境を備えていない居室でもハイエンドマルチGPUが利用可能なハードウェアスペックを誇ります。
加えてオプションのラックマウントレールを装着することにより、デスクサイド利用のみならず19インチラックへの搭載も可能となっています。











