back to the source - 原点回帰😎

自然言語処理 初心者

英語を英語として読めない苦悩

あ、単位落ちました.. 中旬締め切りだったのですが中旬にドタバタしていてやってしまった感があります…


英語論文を読んでいても脳内で自動的に 英語→日本語をして読んでいるのでどうにも効率が悪い そして話し言葉のように前から後ろに読み流しても後ろから前に戻って読み直す なんとも非効率.. うううう..

ラボの先輩曰く,わからない単語がなくなればあとはなんとかなる と言われたのでとにかくわからない単語がないまでは練習あるのみかなって思います..

インターンも3週目になり方向性も決まってこれからっしょという感じです….

最近,論文読んでいてわからないことが増えて来たので一度書籍をしっかり読み直して理解したい..
そしてコードも書いてないと本当に忘れてしまうのでこれもなんとかしたい..

研究してるおかげで研究は基本的に個人戦であることなどを実感して向いてないなぁって思って,それでも何か成果が出ると喜びを感じて狭間で揺れている..

休日に外出て活動する気力すらわかない.. お家is最高って感じ.. これじゃ出会いなんてないですね(笑)

恋も仕事も生きがいも全てがわからない

8月もコミケが終わると中盤という感じです. 授業もなくなりラボのMTGも不定期になり私も夏風邪を引き家に引きこもっていて気分も精神も参ってしまい昼夜も逆転してしまいました.
今週からインターンが始まるのですが正直, 今の生活スタイル夜おきて昼に寝てる 生活してるから生活リズムやばくてツライ.

続きを読む

7月第3週 めも

先週は以下の会に参加してきました.

Gunosyの方の出た本は今回3章の解説である. エンジニア目線というか,一度読んだ人がもう一回確認程度って感じで良さがある.
私的にはその後の論文紹介が楽しみである.
レトリバの方はこれから機械学習やDeepLearning使っていくぜって人が半数いるっぽく感じた.
こちらは1-2.5章の解説でBPの説明まで行っていたのだがレトリバの本職がNLPなのでこれからNLPの話になっていくのか少しきになる.

両読み会に参加して思ったのは私が普段参加する内輪というか研究室内での輪読会に比べてスピーディ感がある点.
読み会に参加したのは初であったので良い刺激になったので,自分の周りでもこういう感は取り入れていきたいと感じる

自然言語処理研究会は両日参加した.
ヤフーの人の招待講演とDeNAらの個性の追加反映の論文発表が特に興味深かった.
ヤフーの人がおっしゃっていた

ユーザがシステムを””普通に”利用(明示的な教師信号や報酬は与えない)してユーザとの対話の経験を通して自律的に学習、成長する対話システムの構築が理想的

という言葉が印象的であった. 他には言われてみれば確かに

近年のデータ駆動型NLPの進展は大量のテキストデータ(Twitter,ブログ記事,新聞記事etc..)の存在に支えられている.

現実問題的に独話データ量は増えているけれど対話データ量はそんなに増えていない.

とうなづいた.

個性やキャラ性については,15年?のPFIインターン成果発表でVAE用いたキャラ性の変換とか先日みづはしさんがQitaに上げていたCVAEによる口調変換は知っていた.
けどそれとは違ったモデルで自分でも確かめたくなってきた(データセット的に難しい(つらい))

www.slideshare.net
個人的には初めて小町先生, 乾先生や高村先生を目にしてこの人なのか!!!って思った.

全脳アーキテクチャ若手の会は半年ぶりに参加してきました. 強化学習会ということで慶應4年の妹尾さんが2時間超発表していた.
DQN以降の強化学習の手法や論文紹介がされていてボリューム満点であった.
資料が結構細かく書いてあったので強化学習をする際は参照したいと思う.
強化学習の基礎的な部分は以前全脳アーキテクチャ若手の会で発表した川崎さんの資料がとても参考になると思う.

深層強化学習の動向 / survey of deep reinforcement learning // Speaker Deck
時間押してたので懇親会には参加しなかったのですが懇親会に参加しないのであればニコ生で良かったのかなと思います.
live.nicovideo.jp


久々に勉強会や研究会に行き実際に発表聞いたりしてモチベーションが向上したのでがんばりたいとおもいます.
同年代で活躍されている方も多いので負けられないですね.

今月からまた記事書きます

ああああ, 死んでた.
ちょっとドッタンバッタン大騒ぎしてて記事書けてなかったけどフッカツダー!!(゚∀゚ )三 三( ゚∀゚)フッカツダー!!


最近データや統一された公開webまとめを見ると,これデータセットに使えないか?
なんて思ってしまう病に侵されている.

サクラダリセット先行上映回&10話までの感想(ネタバレ込み)

昨日, サクラダリセット9話,10話先行上映回にいってきました.
サクラダリセットのイベント行くたびにもらうマクガフィン(ただの石). 一体2クール終わった後には何個溜まるんだ…
作品は10話で一連の話に一区切り(全ての伏線を回収したわけではない)しました.

https://sagradaanime.tumblr.com/post/161196953144/5月30日火開催サクラダリセット先行上映会当日券販売のお知らせ
sagradaanime.tumblr.com

本編の感想(10話中心)

10話までで原作は1〜3,4巻の内容.

散りばめられた伏線回収をしている段階がすごく鳥肌.
見てない人は見てください!!! 途中退屈しますけど10話まで見て初めて繋がった感がある.

続きを読む

時間あったらやるかもしれない.

第21回PRMUアルコン

今年は下画像のように,古典籍画像の指定領域に含まれるくずし字を認識して,各字のUnicodeを出力する課題です.

f:id:planetaria:20170517192301j:plain

Dockerfileを提供してくれるのはありがたい. 環境が統一されるという点で良い

github.com

深層学習用いるならGPUの有無で差がでるけど,おそらくただ深層学習にぶち込むのは独創性という点はあまりなさそう.
物体検出のコンペ実はまだ参加したことないのでこういう方法でうまく行くかなぁ??って空想しかないのです(´・ω・`)

落ち着いたらやってみようと思います.