TOP

クリップ
2016/05/18(水) 18:10 開催
東京都 国際展示場

【100席増枠!】第14回全脳アーキテクチャ勉強会 ~深層学習を越える新皮質計算モデル〜

基本情報

日 時: 2016/05/18(水) 18:10 〜 21:00
会 場: パナソニック株式会社 パナソニックセンター東京 1階ホール
住 所: 東京都江東区有明3丁目5番1号

イベント内容

第14回全脳アーキテクチャ勉強会 (*学生別枠を設けました )

全脳アーキテクチャ・アプローチでは,脳における多様な学習能力に対する理解にもとづいた汎用人工知能の構築を目指しています.
このアプローチが可能になった背景には,脳の大脳新皮質に対応づけうる深層学習が5年ほど前から急速に発展を遂げたことがあります.一方で近年は神経科学の発展も著しく,これらの知見を活かすことで現状の深層学習を超えた情報処理が行える可能性も有ります.そこで今回は「(仮)深層学習を越える新皮質計算モデル」をテーマとして勉強会を企画しました.
物理学者の松田卓也先生からは,工学的な人工ニューラルネットワークよりも詳細な神経科学知見を取り入れ,最近になって研究成果の発表が続いた, ジェフ・ホーキンスらによるHierarchical Temporal Memoryについてご紹介いただきます.さらに理研BSIの谷藤学先生からは神経科学の観点から,視覚情報処理の最新知見の紹介や,それらを踏まえた情報処理の計算モデルに関わる研究成果などにつき,ご講演いただきます.また最後には演者を交えたパネルディスカッションも予定しております.

勉強会開催詳細

  • 日 時:2016年5月18日(火) 18:10~21:00 (17:40開場)
  • 場 所:パナソニック株式会社パナソニックセンター東京1階ホール 〒135-0063 東京都江東区有明3丁目5番1号 http://www.panasonic.com/jp/corporate/center/tokyo/access.html (株式会社パナソニック様のご厚意による会場ご提供)
  • 定 員:330名(定員に達し次第締め切らせて頂きます)
  • 参加費:無料
  • 申込方法:本イベントに参加登録のうえ,当日会場受付にてお名前・ご所属等の記入をお願い致します。
  • 主 催:NPO法人全脳アーキテクチャ・イニシアティブ
  • 協 賛:パナソニック株式会社
  • 後 援:株式会社ドワンゴ 

  • 同日、第1回全脳アーキテクチャシンポジウムも開催しています。よろしければご参加下さい。https://wba-meetup.doorkeeper.jp/events/43497

レポーターを募集しています

NPO法人WBAIのウェブページに掲載する本勉強会の報告書作成にご協力いただくレポーターを5月15日まで募集しております。(分量は1講演あたり1ページ程度であり,ドワンゴ人工知能研究所所長山川宏氏と共著となります)。
参考としてこれまでのレポートはドワンゴ人工知能研究所のテクニカル・レポートとして発行しております。

満席の場合でも勉強会の協力参加者として出席できますので、ご協力をいただける方は本ページのお問い合わせよりご連絡ください。

ネット配信について

下記URLからニコニコ動画にて生放送します。事前に「タイムシフト予約」をしておくと、講演から1週間閲覧可能になります。
http://live.nicovideo.jp/gate/lv262776740
※配信環境によって放送が途切れる場合がございます。予めご了承ください。
※谷藤学(理研BSI)様の生放送は行いませんので予めご了承ください。

会場の利用注意

  • 自動車での来場はご遠慮下さい。
  • 会議室内に飲み物を持ち込むことができます(販売はしておりません)。
  • 会議室内での食事は禁止となっています。

講演スケジュール

司会進行:坂井美帆

18:10 - 18:15「パナソニック株式会社様よりご挨拶」

18:15 - 18:30「オープニング」(ドワンゴ人工知能研究所 山川宏氏)   

18:30 - 19:20「大脳新皮質のマスターアルゴリズムの候補としてのHierarchical Temporal Memory (HTM)理論」松田卓也(NPO法人 あいんしゅたいん)

汎用人工知能の基本アルゴリズムとしては大脳新皮質をリバースエンジニアリングするのが近道であろう。ジェフ・ホーキンスによれば脳は常に一瞬先を予測しているという。ここでは新皮質のマスターアルゴリズムの候補としてホーキンスの提案するHierarchical Temporal Memory (HTM)理論を解説する。HTM理論の最大の特長は時間の重視である。その意味でHTM は隠れマルコフモデルを始めとするダイナミックベイジアンモデルとの親和性が強い。まずHTM理論の歴史を述べ、第一世代のゼータ1アルゴリズム、第二世代のCortical Learning Algorithm (CLA)、最新のGen3アルゴリズムについて解説し、CLAと神経科学の関係を述べる。CLAのニューロンはANNとは異なり、3種類の樹状突起をもち、多数のシナプスを備えている。新皮質の6層構造との関係も述べる。さらに最近明らかになってきたHTM の数学的基礎について述べる。

19:20 - 19:35 休憩

19:35 - 19:40 WBAI創設賛助会員のプレゼンテーション

19:40 - 20:30 「サル高次視覚野における物体像の表現とそのダイナミクス」 谷藤学(理研BSI)

私たちが目にする物体像には視点、向き、自然な形状の変化などによって様々な「見え」がある。同じ人物の正面の顔と側面の顔のように、同じ物体でも画像としては全く異なる場合すらある。それにも関わらず、私たちが不変的に物体を認識することができるのは、脳の「物体表現空間」の中で、同じ物体像であれば近いところに、違う物体像は離れて表現されているからだと考えるのは自然であろう。この空間を構成する各軸は、高次視覚野の細胞が物体像から検出している図形特徴である。その図形特徴を決めることが、不変的な物体認識に本質的である。講演の前半では、この図形特徴を決める試みについて紹介したい。

さて、福島邦彦のネオコグニトロンに起源をもつDeep Convolutional Neural Network (DCNN)は、物体像のカテゴリ弁別に優れたネットワークとして着目されている(Krizhevsky, et al., 2012)。DCNNの物体表現層の特性は、脳の「物体表現空間」に対応するのかもしれない。実際、DCNNの物体表現層の応答特性とサル高次視覚野の細胞の物体像に対する応答特性との間には高い相関があるという報告もある(Yamins, et al., 2014)。しかし、このような見かけの類似性からDCNNは脳のよいモデルになっていると考えてよいのだろうか?現在のDCNNは自然画像の持つ統計的な性質に基づくスタティックなパターン分類である。これに対して、ヒトの物体認識は目的に応じてダイナミックに変化するプロセスであるように思われる。たとえば、ヒトの物体認識には空間的な注意は重要な役割を果たしている。私たちは、注意をあちこちに向けることで様々な物体が混在する自然画像の中で目標となる物体を探索する。また、注意を向けている場所にある物体像は、注意を向けていない場所の物体像と比較して容易に検出できることも心理学実験により示されている(Posner, 1980)。DCNNとは違って、霊長類の視覚情報処理はダイナミックで、脳の「物体表現空間」における物体像の表現もまた目的に応じて変化するのでないだろうか。私たちは、特に、空間的な注意に着目し、それが、高次視覚野の細胞の特性に与える影響について研究している。その話を後半でしたい。

20:30 - 20:50頃 パネルディスカッション

21:00 - 23:00 懇親会(自由参加)

会場近辺のお店で、有志による懇親会を行います。

シンポジウム運営スタッフ

  • プログラム委員長 山川宏
  • 実行委員長    生島高裕
  • 登壇者担当    吉岡英幸
  • 会場担当     川村正春,上野聡
  • 広報担当     坂井美帆
  • 渉外担当     坂井美帆
  • 撮影担当     門前一馬
  • ニコ生中継    清水俊博,荒木真一

全脳アーキテクチャ・イニシアティブ創設賛助会員

WBAI創設賛助会員

全脳アーキテクチャ勉強会オーガナイザー

◎産業技術総合研究所 人工知能研究センター脳型人工知能研究チーム 一杉裕志

1990年東京工業大学大学院情報科学専攻修士課程修了。1993年東京大学大学院情報科学専攻博士課程修了。博士(理学)。同年電子技術総合研究所(2001年より産業技術総合研究所)入所。プログラミング言語、ソフトウエア工学の研究に従事。2005年より計算論的神経科学の研究に従事。

「全脳アーキテクチャ解明に向けて」

◎株式会社ドワンゴ人工知能研究所 所長 山川宏

1987年3月東京理科大学理学部卒業。1992年東京大学で神経回路による強化学習モデル研究で工学博士取得。同年(株)富士通研究所入社後、概念学習、認知アーキテクチャ、教育ゲーム、将棋プロジェクト等の研究に従事。フレーム問題(人工知能分野では最大の基本問題)を脳の計算機能を参考とした機械学習により解決することを目指している。

http://ailab.dwango.co.jp/

◎東京大学 准教授 松尾豊

東京大学で、ウェブと人工知能、ビジネスモデルの研究を行っています。 ウェブの意味的な処理を人工知能を使って高度化すること、人工知能のブレークスルーをウェブデータを通じて検証することを目指しています。

http://ymatsuo.com/japanese/

全脳アーキテクチャ実現に関する参考資料

第13回全脳アーキテクチャ勉強会 〜コネクトームと人工知能〜

第12回全脳アーキテクチャ勉強会 〜脳の学習アーキテクチャー〜

第11回全脳アーキテクチャ勉強会 ~Deep Learningの中身に迫る~

  • 深層学習の学習過程における相転移
  • Deep Neural Networksの力学的解析
  • SkymindのDeep Learningへの取り組み
  • 勉強会概要と発表資料

第10回全脳アーキテクチャ勉強会 「全脳アーキテクチャのいま」~全脳アーキテクチャプロジェクトとそれをとりまく周辺の最新状況報告~

  • 全脳アーキテクチャの全体像
  • 人工知能の難問と表現学習
  • 全脳アーキテクチャと大脳皮質モデル BESOM の実用化研究の構想
  • 全脳アーキテクチャを支えるプラットフォーム
  • 人工知能・ロボット次世代技術開発
  • 汎用人工知能に向けた認知アーキテクチャが解決するべき知識の課題
  • 感情モデルと対人サービス
  • 若手の会の活動報告
  • 勉強会概要と発表資料

第9回全脳アーキテクチャ勉強会 ~実世界に接地する言語と記号~

  • 脳内視覚情報処理における物体表現の理解を目指して ~Deep neural networkの利用とブレイン・マシン・インタフェースへの応用~
  • 記号創発ロボティクス ~内部視点から見る記号系組織化への構成論的アプローチ~
  • 脳科学から見た言語の計算原理
  • 勉強会概要と発表資料

第8回全脳アーキテクチャ勉強会 時系列データ ~脳と機械学習技術は時間をどう扱うのか~

  • 脳における時間順序判断の確率論的最適化
  • 順序とタイミングの神経回路モデル
  • 深層学習によるロボットの感覚運動ダイナミクスの学習
  • 勉強会概要と発表資料

第7回全脳アーキテクチャ勉強会 感情 ~我々の行動を支配する価値の理解にむけて~

  • 感情の進化 ~サルとイヌに見られる感情機能~
  • 情動の神経基盤 ~負情動という生物にとっての価値はどのように作られるか?~
  • 感情の工学モデルについて ~音声感情認識及び情動の脳生理信号分析システムに関する研究~
  • 勉強会概要と発表資料

第6回全脳アーキテクチャ勉強会 統合アーキテクチャー ~神経科学分野とAI分野の研究蓄積の活用に向けて~

  • 分散と集中:全脳ネットワーク分析が示唆する統合アーキテクチャ
  • 脳の計算アーキテクチャ:汎用性を可能にする全体構造
  • 認知機能実現のための認知アーキテクチャ
  • 勉強会概要と発表資料

第5回全脳アーキテクチャ勉強会 ~意思決定 深いゴール探索と深い強化学習の技術をヒントにして、前頭前野の機構の解明を目指す~

  • Deep Learning とベイジアンネットと強化学習を組み合わせた機構による、 前頭前野周辺の計算論的モデルの構想
  • BDI ―モデル、アーキテクチャ、論理―
  • 強化学習から見た意思決定の階層
  • 勉強会概要と発表資料

第4回全脳アーキテクチャ勉強会 ~機械学習と神経科学の融合の先に目指す超知能~

  • 全脳アーキテクチャ主旨説明
  • AIの未解決問題とDeep Learning
  • 脳の主要な器官の機能とモデル
  • 脳をガイドとして超脳知能に至る最速の道筋を探る
  • 自然な知覚を支える脳情報表現の定量理解
  • 脳型コンピュータの可能性
  • 勉強会概要と発表資料

第3回全脳アーキテクチャ勉強会 ~海馬:脳の自己位置推定と地図作成のアルゴリズム~

  • 「SLAMの現状と鼠の海馬を模倣したRatSLAM」
  • 「海馬神経回路の機能ダイナミクス」
  • 「人工知能(AI)観点から想定する海馬回路の機能仮説」
  • 勉強会概要と発表資料

第2回全脳アーキテクチャ勉強会 ~大脳皮質と Deep Learning~

  • 「大脳皮質と Deep Learning」
  • 「視覚皮質の計算論的モデル ~形状知覚における図地分離と階層性~」
  • 「Deep Learning技術の今」
  • WBAの実現に向けて: 大脳新皮質モデルの視点から
  • 勉強会概要と発表資料

第1回全脳アーキテクチャ勉強会 ~機械学習と神経科学の融合の先に目指す超知能~

  • 勉強会開催の主旨説明
  • AIの未解決問題とDeep Learning
  • 脳の主要な器官の機能とモデル
  • 脳を参考として人レベルAIを目指す最速の道筋
  • 勉強会概要と発表資料

その他関連情報

全脳アーキテクチャ勉強会の開始背景(2013年12月)

人間の脳全体構造における知的情報処理をカバーできる全脳型AIアーキテクチャを工学的に実現できれば、人間レベル、さらにそれ以上の人工知能が実現可能になります。これは人類社会に対して、莫大な富と利益をもたらすことが予見されます。例えば、検索や広告、自動翻訳や対話技術、自動運転やロボット、そして金融や経済、政治や社会など、幅広い分野に大きな影響を与えるでしょう。

私達は、この目的のためには、神経科学や認知科学等の知見を参考としながら、機能的に分化した脳の各器官をできるだけ単純な機械学習器として解釈し、それら機械学習器を統合したアーキテクチャを構築することが近道であると考えています。

従来において、こうした試みは容易ではないと考えられてきましたが、状況は変わりつつあります。すでに、神経科学分野での知見の蓄積と、計算機速度の向上を背景に、様々な粒度により脳全体の情報処理を再現/理解しようとする動きが欧米を中心に本格化しています。 またDeep Learning などの機械学習技術のブレークスルー、大脳皮質ベイジアンネット仮説などの計算論的神経科学の進展、クラウドなどの計算機環境が充実してきています。

こうした背景を踏まえるならば、全脳型AIアーキテクチャの開発は世界的に早々に激化してくる可能性さえあります。 そこで私達は、2020年台前半までに最速で本技術を実現できるロードマップを意識しながら、この研究の裾野を広げていく必要があると考えています。 そしてこのためには、情報処理技術だけでなく、ある程度のレベルにおいて神経科学等の関連分野の知見を幅広く理解しながら、情熱をもってこの研究に挑む多くの研究者やエンジニアの参入が必要と考えています。

  • Twitterでシェア
  • 0
    Facebookでシェア
  • 0
    Google+でシェア
  • 0
    はてなブックマークに追加

Facebookページ

dots.で申込可能なイベント