TOP

クリップ
2016/07/23(土) 16:00 開催
東京都 西新宿

ITエンジニアのためのDeepLearning >>番外編

基本情報

日 時: 2016/07/23(土) 16:00 〜 19:30
会 場: さくらインターネット株式会社
住 所: 東京都新宿区西新宿7-20-1 (住友不動産西新宿ビル 33F)

イベント内容

[事後アップデート]

LTトークされた方のうち、slideshareに投稿された方がいらっしゃいましたので共有致します。

スライドシェア:自然言語処理入門 - 三上 悟 @ #7







さくらインターネットさん協賛により、土曜日開催の拡大バージョン!!


※[7/14追記]定員を大幅に越えたため立ち見席を設けました。
※[7/21追記]7/28に最終回を開催します。こちらも合わせてどうぞ!
ITエンジニアのためのDeepLearning #最終回


[ITエンジニア向けのDeepLarning初学者向けのセッションです]==========================

[メイン発表者:中塚晶仁]
情報のソースが乏しい時期から、C/C++/OpenCLをベースにしてDeepLearning系のライブラリ一式を組み上げた経験があることから、深層学習やパターン認識系の本の罠と、本には載っていない貴重な情報や、数式を全く使わない考え方を初学者向けに提供しています。
そのため、何故本を書かないのか?等、毎回参加者から言われるほど絶賛の声を頂いております。
なお、本人はそろそろ自身の会社サービス開発をするために、7月末から海外へ行ってしまいます。
なので、残すところ数回のみの実施となりますので、お見逃しなく!
※日本にいるうちにエンジニアとのネットワークを広げたいという意図で実施しています。

[メイン発表者:さくらインターネット株式会社 技術本部 高火力チーム PD 須藤 武文 ]


=============================================================

当日キャンセルは基本お断り申し上げます。
ドタキャンされますと、折角応募して頂いてるキャンセル待ちの方にご迷惑がかかってしまいますので、必ず1日前にはご報告くださいませ。ご理解、ご協力の程をどうか宜しくお願い致します!



[ タイムスケジュール ]
  • 15:30〜16:00 開場
  • 16:00〜16:45 DeepLearningセッション(中塚晶仁)
  • 16:45~17:00 ライトニングトーク(若干名)
  • 17:00〜17:45 レベルを上げて物理で殴る~機械学習とさくらの高火力2016夏~(さくらインターネット株式会社 須藤 武文)
  • 17:45〜18:00 総括。DeepLearningの課題と未来(中塚晶仁)
  • 18:00〜19:30 グループセッション/懇親会

※イベントの内容は当日変わる可能性があります。

[ DeepLearningセッション ] (16:00~16:45)
  • 自己紹介
  • DeepLearningの精度と計算時間
  • ニューラルネットは分散しにくい
  • パラメータ探査の困難さ(モンテカルロ法、遺伝的アルゴリズム、Q学習)
  • CPUとGPUの性質
  • GPGPUとトレードオフ(台所事情)
  • DeepLearningに於けるアクセラレートポイント
  • 失敗したOpenCLと、囲い込みのCUDA
  • 設備投資について
  • 費用対効果と相場
  • 持つものと持たざるもので分かれる機械学習


[ ライトニングトーク ] (16:45~17:00)
  • 「ディープラーニングとは何か分かってないけど画像分類してみた」(yamauchi Masahiro)
  • 「新しい人間観を目指して」(Keiichirou Yoshida)


[ レベルを上げて物理で殴る~機械学習とさくらの高火力2016夏~ ] (17:00~17:45)
  • 自己紹介
  • 機械学習に計算資源が必要な3つの理由
  • 計算資源をホイホイ増やせない3つの理由
  • さくらの「高火力」のこと


[ 総括。Deeplearningの課題と未来 ] (17:45~18:00)
  • DeepLearningは人工知能ではない
  • 求められるシンギュラリティ
  • 生成モデルの発達と紹介


[ グループセッション→懇親会 ] (18:00~19:30)
  • グループ毎に自己紹介と現在DLについて取り組んでいることなどを共有。
  • 数少ないDeepLearningエンジニアとWEBエンジニアの間で交流をしましょう!

※会場にて簡単なおつまみとアルコールをご提供致します。


19:30 終了
  • 20:00までに完全撤収となりますので、ご協力下さい。
  • お忘れ物のないようにお気を付け下さい!




[告知]ライトニングトークされる方を募集!

DeepLearningについてご自身で試みられていることや、
勉強するうえでハマっていること、こんなことしたい!といった事を発表してみませんか?
その場で、発表者が関連するトピックについて言及して話を広げていきます。
※トーク時間は1~3分程度で結構です。

発表を希望される方は「ライトニングトーク参加枠」でお申込み下さい。
また引き続き会場及びスポンサー様を探していますので、ご協力頂ける方は以下までご連絡くださいませ。
(事務局:田中)

以下、過去の講義内容

#6の内容

  • ニューラルネットワーク基礎
  • 偏微分連鎖律と数式を無視する型破りなバックプロパゲーションの理解
  • 教師あり学習のデモ
  • Weightsを視覚化してみる
  • DCNN(DeepConvolutionalNeuralNetwork)を徹底解剖します!
  • Convolution層とMaxPoolingの働きについて
  • Convolution層とMaxPoolingのバックプロパゲーションの理解
  • Convolution層の多層化の意味について
  • Convolution層のWeightsを視覚化してみる
  • DCNNの派生系についてのお話

#5の内容

  • ニューラルネットワーク基礎
  • 偏微分連鎖律と数式を無視する型破りなバックプロパゲーションの理解
  • 教師あり学習のデモ
  • Weightsを視覚化してみる
  • 教師なし学習のデモ
  • 主成分分析を視覚化してみる
  • DeepLearningの深さの利点について
  • 失敗から学ぶ。勾配消失問題を味わってみよう!
  • チューニングの全体像
  • プレトレーニングは時代遅れ
  • 失敗から学ぶニューラルネットワーク
  • MLPに於ける失敗するパラメータの事例
  • StackedAutoEncodersに於ける失敗するパラメータ事例
  • DCNNに於ける失敗するパラメータ事例

#4の内容

  • 多クラス分類について
  • 教師ありデータ収集について
  • オントロジーとは?
  • オントロジーの定義の難しさ
  • ImageNetやコンペティションの公共のデータ
  • WEBクローラーの作り方
  • BOT対策について
  • データ解析ツールの作り方とOpenCV
  • 漫画やサムネイル、別サイズの同じ画像の除去
  • ラベル貼り付けとコストについて

#3の内容

大枠の概要

  • DeepLearningの歴史と重要なネットワーク
  • 選択すべきネットワークの形とそのメリット&目的の理解
  • ライブラリの選択とセットアップ
  • DCNNじゃなくてフルコネクションネットワークと画像解析

技術詳細

  • 教師あり学習の基礎(Perceptron/MLP)
  • 教師なし学習について
  • 教師なし学習の役割と活用例
  • AutoEncoder/StackedAutoEncodersで次元圧縮と分析
  • AdamとSGDとAutoEncoderの成功と失敗パラメータ

#2の内容

大枠の概要

  • DeepLearningの歴史と重要なネットワーク
  • 選択すべきネットワークの形とそのメリット&目的の理解
  • ライブラリの選択とセットアップ
  • DCNNのパラメータ設定

技術詳細

  • DCNNの形の理解
  • PerceptronとMLPとDCNNの関係
  • ニューラルネットワークの基礎
  • PerceptronとMLPの予測計算を絵で理解する
  • PerceptronとMLPのバックプロパゲーション計算を絵で理解する

#1の内容

大枠の概要

  • DeepLearning専門用語解説
  • 選択すべきネットワークの形とそのメリット&目的の理解
  • ライブラリの選択とセットアップ
  • データ読み込み機構とアウトプット機構(画像編)
  • データ収集とWEBクローラー(画像編)
  • ラベル付の効率化(画像編)
  • DCNNのパラメータ設定

技術詳細

  • データの水増し編 (アフィン変換、ノイズ、ディストーション、プロジェクション、カラー)
  • データランダマイズサンプル
  • ランダムデータと正規分布データ
  • データ正規化(ZCA/PCA Whitening)
  • 活性化関数の選択
  • MaxOut実装方法
  • バッチ正規化と最新の活性化関数ELU(ReLuじゃないヨ)
  • L1/L2正則化とAdaGrad/RMSProp/AdaDelta/Adam/AdaMax
  • オントロジーとデータ整頓
  • 平均予測
  • GPGPUの台所事情


  • Twitterでシェア
  • 0
    Facebookでシェア
  • 0
    Google+でシェア
  • 0
    はてなブックマークに追加

タグに関連するイベント

2016/12/05(月) 19:30 〜 22:00
東京都 渋谷
2016/12/25(日) 09:45 〜 18:00
大阪府 大阪
2016/12/10(土) 11:00 〜 18:00
東京都 末広町

Facebookページ

dots.で申込可能なイベント