kaakaa Blog

この世は極楽 空にはとんぼ

builderscon2017 8/5(土)

概要

感想

  • 今まで触れたこともない3DプリンタやAR/VRの話を選んで聴講
    • 3Dプリンタの階差機関の内部構造とか自分では調べようとは絶対思わないので貴重だった。でもこの知識を使うところがない。
    • VR/ARの方は夢広な感じ。でも、ちゃちゃっと一人で始められ無さそうなのが敷居高い。
    • 「どちらも知らなかったを知る」
  • TPUのセッションでは、TPUの狙い所を理解できた
    • ASICにより出来ることは限定的だが、その限定的な機能でとても汎用的な使い方ができる
  • OSSの引き継ぎ方は具体的な話で用途は限定されそうだけど、実際に合ったことなので貴重。
    • 時間なくて全て聞けなかったのがちょっと残念。

セッション聴講記録

D 3Dプリンタで作る1次元セル・オートマトン、階差機関、アナログコンピュータ 10:30-11:30


  • 9進数や2進数も初期化できるか?
    • デキると思う。階差機関はアナログのようで離散的な数値しか表せないためデジタル。
  • CADは何を使っている?
  • 何かの計算をした後に、その値が残っているはずで、それをリセットする機構はあるか?
    • 計算後は逆向きに伝播させることで初期化できる。0にする方法は分からない。


  • バベッジの階差機関はそろばんより高性能?
    • そろばんは人力。階差機関は誰でも使えるので高性能だと思う。

E Tensor Processing Unit 11:40~12:10

  • @kazunori_279, Google
  • GoogleのDeepLearning
    • 自動メール文面suggestion. 12%のメールで利用されてる。日本語版はまだ。
    • Google翻訳
    • DeepLearningを利用することで電力料金40%減
  • Google機械学習サービス
    • VisionAPIとか
    • Tensor flow, MachineLearningEngineは顧客自身で学習させるサービス
  • Tensor Flow
    • CPU上で作ったものをGPUへ簡単に移行できる
    • Chainerは日本で流行ってるだけ
    • Qualcomm SnapdragonでDSPを利用したTensorFlowはCPUより圧倒体に早い
      • DSP = 音声処理信号処理用のプロセッサ
    • きゅうり仕分け機 / アイドル画像
  • DeepLearning電力問題
    • 1st gen TPU
    • ASIC(Application Specific IC) (28mm process)
    • 電力消費 40W, (GPUは300~400Wぐらい)
    • 推論特化。学習は向いてない。
    • 2nd gen TPUは学習・推論できる。
  • 1st genは2013年に作り始めて15monthsで作り上げた
    • ASICは一度作ると作り直せない。開発と検証を雇用を同時並行で。
  • TPUでは信号を32bit floatで量子化する必要なんてない。8bitとかで反応を見るには十分。1bitも考えている。
    • GPU: 2496 x 32 bit float, TPU: 65536 x 8bit
  • CPU = scalar, GPU/SIMD = vector, TPU = matrix
  • TPUは数珠つなぎで計算を繋ぐだけなので、レジスタへのI/Oが必要なく速い。
    • systolic array
    • 汎用化のためのコントローラーなども必要ない
    • Google検索チームからの要求「99%の確率で7ms以内で回答する必要あり」 CPU/GPUでは無理だった
  • 2nd gen TPU
    • 11.5Pflops (京と同じぐらい). コストパフォーマンスは比較にならない。
    • cloud TPUとしてα提供中。まだ使える人限定的。
    • Tesor Flow ResearchCloud. 1000ユニットを無償で貸し出し。

  • TPUがモバイルに乗るのはいつ頃?
  • NVIDIAのTensorFlow対応GPU?(TensorCore)とTPUとの違いは?
    • 32bit計算が主流のGPUではなく、16bitにして速度を上げたもの?

E. OSSの引き継ぎ方 13:30-14:00

  • @hsbt, GMOペパボのCP(roductivity)O
  • ペパボ従業員350人の生産性を高めることがミッション
  • rubyメンテナ
    • 2009の1.9.x系から有名なライブラリが出始める(rspec, nokogiri, thorなど)
    • 2013年ごろからメンテナが他の言語に移り、メンテナンスされなくなるものがちらほら
    • 貢献したり、新しいの作ったり、引き継いだり・・今回は「引き継ぐ」に関する話
  • 引き継ぎたいとき
    • メンテナのように振る舞ってればくれる, Issueが経ってる, E-Mail,DM,Slack…, 対面で
    • Twitterとかは欧州・台湾などで使われてないのでE-Mail最強
  • rake問題
    • 超有名ライブラリ。作者のJimが2014年に他界
    • GitHubに掛け合ってruby/rakeに移行
    • hoeを使ってたのでパット見で何をすればよいかわからない => その時々のトレンドを取り入れたboilerplateを作る
    • deprecatedコードを削除したらbreaking change。Warningをしつこく出すべき
  • その他の問題と教訓
    • @tenderloveがpsychの権限をくれないので、一緒に登壇する時に強制的にtransferさせた
    • securityについては詳しい人と知り合いになり、聞ける間柄を作っておくと良い
    • 修正の反応見るためにリリース大事。メンテナンスできるけどリリース権限がないこともよくある。リリース権限は持ったほうが良い。
    • rubygemsのメンテナンスをbundlerチームが受け持つ -> それまでのメンテナの権限削除!
    • => bundlerチームはruby-coreの内容にあまり興味がない。rubyの変更をパッチで送ってもあまり取り合ってくれない
  • 時間がないので、続きはRubyKaigiで。

B. HADOが採用したポジショントラッキングの話 14:10~15:10


  • HADOでマーカーの絵を相手プレイヤーが隠すことがあるが影響はないか?
    • 影響はある。味方でも隠れてしまうのは問題。壁のサイズを増やす
  • HADOはリモートでも遊べるのでは?
    • マーカーさえあれば大丈夫なので考えたことはある。実装段階ではない。
  • IPとタッグを組むと良いかと。「ワールドトリガー」と組んだらお金をいくつもつぎ込んでしまいそう
    • 期間限定でIPとのタッグはやったことはある
    • ワールドトリガー」との話もあったが、その後どうなったかは知らない
  • ARKitで最初にマーカーを使って位置補正をすれば出来るのではないか
    • HoloLensでは、位置補正のアイデアはあったが原点を移動させることができなかった。
    • ARKitは力が割けていないため分からない
  • Tango. 複数端末の同期はどうやっている?
    • 位置同期なら原点を共有するだけ。攻撃判定は当てた側の判定を使っている。
    • 精度はサーバーサイドエンジニアの実力。Scalaで組んでいる。

B Serverless Server Side Swift 15:20~15:50

B ここが辛いよサーバーレス。だが私は乗り越えた 15:50~16:20