back to the source - 原点回帰😎

自然言語処理 初心者

7月第3週 めも

先週は以下の会に参加してきました.

Gunosyの方の出た本は今回3章の解説である. エンジニア目線というか,一度読んだ人がもう一回確認程度って感じで良さがある.
私的にはその後の論文紹介が楽しみである.
レトリバの方はこれから機械学習やDeepLearning使っていくぜって人が半数いるっぽく感じた.
こちらは1-2.5章の解説でBPの説明まで行っていたのだがレトリバの本職がNLPなのでこれからNLPの話になっていくのか少しきになる.

両読み会に参加して思ったのは私が普段参加する内輪というか研究室内での輪読会に比べてスピーディ感がある点.
読み会に参加したのは初であったので良い刺激になったので,自分の周りでもこういう感は取り入れていきたいと感じる

自然言語処理研究会は両日参加した.
ヤフーの人の招待講演とDeNAらの個性の追加反映の論文発表が特に興味深かった.
ヤフーの人がおっしゃっていた

ユーザがシステムを””普通に”利用(明示的な教師信号や報酬は与えない)してユーザとの対話の経験を通して自律的に学習、成長する対話システムの構築が理想的

という言葉が印象的であった. 他には言われてみれば確かに

近年のデータ駆動型NLPの進展は大量のテキストデータ(Twitter,ブログ記事,新聞記事etc..)の存在に支えられている.

現実問題的に独話データ量は増えているけれど対話データ量はそんなに増えていない.

とうなづいた.

個性やキャラ性については,15年?のPFIインターン成果発表でVAE用いたキャラ性の変換とか先日みづはしさんがQitaに上げていたCVAEによる口調変換は知っていた.
けどそれとは違ったモデルで自分でも確かめたくなってきた(データセット的に難しい(つらい))

www.slideshare.net
個人的には初めて小町先生, 乾先生や高村先生を目にしてこの人なのか!!!って思った.

全脳アーキテクチャ若手の会は半年ぶりに参加してきました. 強化学習会ということで慶應4年の妹尾さんが2時間超発表していた.
DQN以降の強化学習の手法や論文紹介がされていてボリューム満点であった.
資料が結構細かく書いてあったので強化学習をする際は参照したいと思う.
強化学習の基礎的な部分は以前全脳アーキテクチャ若手の会で発表した川崎さんの資料がとても参考になると思う.

深層強化学習の動向 / survey of deep reinforcement learning // Speaker Deck
時間押してたので懇親会には参加しなかったのですが懇親会に参加しないのであればニコ生で良かったのかなと思います.
live.nicovideo.jp


久々に勉強会や研究会に行き実際に発表聞いたりしてモチベーションが向上したのでがんばりたいとおもいます.
同年代で活躍されている方も多いので負けられないですね.