かえるのプログラミングブログ

プログラミングでつまずいたところとその解決策などを書いていきます。

Xonsh はじめました。

こんばんは、かえるるる(@kaeru_nantoka)です。今回は、興が乗ったのでみんな大好き某くし氏激推しの shell 'xonsh' のセットアップを行いました。控えめにいってサイコーです。

xonshrc は基本的に某ブログのコピペで問題ないと思いますが、私の環境では丸々コピペで ls 系統のコマンドが全部利用できなくなるという事故を経験したので ls の alias 部分をこう書き換えたらうまくいったよということを残しておきます。

ほぼコピペですが、私の xonshrc と zshrc は以下のリポジトリにおいています。

https://github.com/osuossu8/dotfiles


参考

https://vaaaaaanquish.hatenablog.com/entry/2018/06/22/194227


つまづいたところ

ls 関連の alias 部分です。 以下の設定のまま source ~/.xonshrc すると・・・

aliases['ls'] = "ls --color=auto"
aliases["l"] = "ls -l"
aliases["lf"] = "ls -f"
aliases["ld"] = "ls -d"
aliases["la"] = "ls -la"
aliases["ll"] = "ls -l"

このようなエラーが出て、無事 ls が利用できなくなりました。

ls: illegal option -- -
usage: ls [-ABCFGHLOPRSTUWabcdefghiklmnopqrstuwx1] [file ...]

上の部分を以下のように書き換えて source ~/.xonshrc したら復活しました。やったぜ。

aliases["lt"] = "ls -ltr -G"
aliases["l"] = "ls -ltr -G"
aliases["la"] = "ls -la -G"
aliases["ll"] = "ls -l -G"
aliases["ls"] = "ls -G"

まとめ

・ 某くしさんのチュートリアル記事で xonsh のセットアップができた。

・ 色とか補完がいい感じでサイコーだった。

・ xonshrc だと環境によっては ls が使えなくなるのでソースを少しいじった。

以上です。ありがとうございました。

「 Sports Analyst Meetup #2 (#spoana)」に参加してきました。~ 安西先生 LTがしたいです。 ~

こんばんは、かえるるる(@kaeru_nantoka)です。 今日は、「 Sports Analyst Meetup #2 (#spoana)」に参加してきました。 こちらのイベントに参加(聴講)するにあたって、目標を1つ自分に課しました。その観点に沿って聞いてメモしたものの中から抜粋して、そのまとめを綴っていこうと思います。


目次

・どんなイベントなの?

・どんな課題感で望んだの?

・各発表について

・まとめ


1 どんなイベント?

スポーツデータを題材に 実務 / 研究 / 趣味 で分析をしている方々による発表 ・ LT を聞ける会。 #2 では、実務(プロチームの戦略立案に役立てるための分析)でスポーツデータにを分析している方 2名のロングトークとLT 10本という大満足の内容だった。

https://spoana.connpass.com/event/126625/


2 どんな課題感で望んだの?

「自分が LT をすることを想定して、どのようにデータを用意し、どのような流れでまとめているかを生の LT を聞くことで知る」

ことを目標に、相棒の iPad Pro 9.7 インチにメモを書きなぐりました。

このような課題を自分に課した経緯としては次の通りです。

自分のアウトプットの機会の1つとして、せっかく(機械学習)エンジニアをやっているわけなので、LT をやってみたいという兼ねてからの願望があった。

-> やってみよう。・・・そもそもデータがない。

-> データを集めよう。・・・そもそもデータってどうやって(方法・観点・サンプル数)集めるんだっけ???

-> \(o^)/

ということで他の方の生の発表を聞いてみたいと思いました。

以上の目標を達成するために、観点を、

( i ) 概要・手法

( i i ) データ取得方法

( i i i ) データ数

( i v ) 期間

( v ) 感想

に分けて、メモしていきました。。メモが追いつかなかったものなどは - (ハイフン)にしています。

その中から一部抜粋して、ご紹介します。


3 各発表について

LT #1 戦略シミュレーション分析 (バドミントン)

( i ) ショットをハイリスク・ローリスクに分け、各ショットから得られる得点の期待値を数式として、またそのショットの組み合わせを戦略として定義し、その条件下でシミュレーション。その結果からどの戦略が優位であるかを示した。

( i i ) なし

( i i i ) なし

( i v ) なし

( v ) データがなくてもここまでの発表ができるのか。と自分の視野の狭さを痛感。 問題設定とアプローチは、学部自体にやったゲーム理論や効用最大化問題に近いと感じた。 競技の特性、プラスの効用とマイナスの効用をどう定義するかなど難しさはあるがぜひ挑戦してみたいと思った。


LT #2 大相撲優勝決定巴戦に見る不合理な分布 (相撲)

( i ) 相撲の優勝決定戦という、実力が拮抗 (両者の勝率が 0.5 と仮定)している時の理論値と標本値の比較、適合度の検定(カイ自乗検定)を行い、実力・・拮抗してるんじゃなかったっけ...? (=八○長の存在)を数的根拠を以って示唆した。

( i i ) -

( i i i ) 142

( i v ) 1958年 (今の巴戦のルールが確立した年) ~ 2014年

( v ) 理系の出身の方なら当たり前の手法なのかもしれないが、個人的に理論分布と標本分布の差異を数的に示す手法は私の目標の観点から、とても参考になった。サンプル数も142と自力でアノテーションできる数だなと思った。


LT #3 高校セーリング部のための「データ活用ツール」制作秘話 (セーリング)

( i ) 高校ヨット部をデータ分析の力で強くしよう。しかし、航路、船の傾きなど気象条件やルール上の制約からデータ集めるのが大変 -> どうするか という内容。

( i i ) スマホで集める。

競技の特性上、センサーやコンパス、防水性など多機能かつ高性能な分析デバイスが必要 -> スマホでよくね?

( i i i ) 大変

( i v ) 大変

( v ) やりたい分析対象はあるのに、変動パラメータが多すぎてデータを集めるのに苦戦していた発表者の方。自分の欲しいデータを効率的に集めるためのスマホアプリの紹介もされててすごかったです。一方スマホをデータ収集ツールとして使えばいいじゃないという観点にはハッとさせられた。以前 u++ さんが、iPhone のヘルスケアツールから歩行データなどを xml で取り出せるみたいな記事を書かれていたが、気づいていないだけでそういった魅力的な生データはその辺りに落ちているのかもしれない。


LT #5 富士山登山競争を定量的に評価する (登山)

( i ) 富士山登山競争という競技のつらさを構成する要素を数式で定義。そして、安静時やフルマラソン完走時、高尾山登山時のつらさも同じ式で表して定量的に評価した。

( i i ) 富士山登山競争の過去競争タイムデータから、区間ごとの距離・高低差・平均タイム を運動の消費カロリー(METS)に換算して使用

( i i i ) 1レース分?

( i v ) 1レース分?

( v ) フェルミ推定を彷彿とさせる手法だった。オチも用意されておりプレゼンって感じだった。


LT #7 ボール保持力・奪取力マップから見るロシアW杯2018 (サッカー)

( i ) ボール保持力・奪取力を可視化、国や選手の特性をうまくプロットしていた。

( i i ) Statsbomb 社がオープン化しているデータセット (.json)

Competition : FIFA World Cup 2018

Event : "Pass", "Dribble", "Miscontroll", "Duel"

Location : PosX, PosY

Output : Success, Failure

( i i i ) -

( i v ) FIFA World Cup 2018

( v ) ゲームの視聴者として経験的に把握していた、国や選手の特性を実際の試合データをプロットすることで可視化できており凄かった。(語彙)


4 まとめ

本日 spoana に参加してきた。

「LTをやってみたい。だが何をどんな観点で発表すればいいのか、そもそもデータってどうやって収集するのかわからない」という自分の中にある課題に対し、「その手がかりになる情報を生の発表の中から持ち帰る」という目標を課した。

結果、ぼんやりと聞くより多くの情報をインプットできた(気がする。)し、 自分が LT をするまでに何をすべきか道すじがクリアになった(気がする。)

ぜひ、自分も LT をして良質なアウトプットをする習慣をつけたい。

以上です。ありがとうございました。

PetFinder.my Adoption Prediction で準優勝しました!

こんばんは、kaerururu (@kaeru_nantoka) です。

今回は、5人チームで参加した Kaggle の通称ペットコンペで準優勝し、金メダルを無事獲得できたのでそのポエム簡単な経緯と役割分担のような話を綴っていきます:)

技術的な話(解法など)は、kaggle の discussion に

Summary by upura

kaeru part description

などなど追記されていくと思いますので、そちらをご参照ください。


経緯

きっかけは「かえるさんの転職活動成功のお祝いをしよう」と u++ さんがお声かけしてくださったことでした。

他に誰か誘おうとなったときに kaggle の meet up で ynktk さんと3人でお話ししたことを思い出し、お声かけしたところ OK. すぐに日程調整し、u++ さんが予約してくださった焼き鳥居酒屋「をどり」で会食。

Kaggle のイベントでお会いしたのがきっかけなのでもちろん話題は kaggle .

その時私はソロで参加しており、銅メダル上位くらいの順位でした。

「かえるさんは今何のコンペに参加しているのですか?」

この質問に対し、ペットコンペの簡単な概要(table, image, text を用いたマルチモーダルなコンペであること)、チームで参加してみたいのでぜひやりましょう!という旨をお伝えしました。

「え〜 0 sub だけどいいんですか?」と言っていたが、彼らとチームを組んだら絶対に楽しいと思ったのでそのまま鋭意勧誘、その場でスマホから invite してそのまま accept してもらいました笑

チーム名は、飲み会の会場の名前からとって「Wodori」。簡単にはわからないだろうし、なんか響きと綴りが気に入りました。のちに綴りが Wodori ではなく Odori であることに気づく・・笑

二人の加入で、銀圏まで上昇。当時はお二方とも何やかんや忙しい&キャッチアップの時間が欲しいということで、パッと思いつくアドバイスをいただきながら kaeru が実装するというようなスタイルだった。これで銀と銅を行ったり来たりするくらいで落ち着いた。ちょうど銀圏にいる時、東京大学の入学式に関するツイートを発見し、入学式...新歓!! ということでツイッターでふざけて Wodori チームメンバー募集の旨を呟いた。

何と反応があった。初期に参加していたが 1ヶ月ほどペットコンペの戦線から離れていた takuoko さんだった。

「takuoko さん・・・?!」顔パスだった。 4名になった Wodori は takuoko さんにチーム名の由来を伝えることなく邁進。忙しかったお二方も徐々に(というか急激に)コミット量が増えた。

結果4人でアンサンブル ( kaeru + ynktk takuoko u++) を駆使し金圏手前までいった。

もうひと伸び・・!と思っていたところに開始1週間ほどで金圏手前まで駆け上ってきたペンギンアカウントの gege さんが現れた。u++ さんにより、gege さんのチームマージに成功。

何と彼はシングルで金圏手前まで来ていた。

gege さんのソースをマージし、試行錯誤する中で金圏に到達。

そのまま、金圏で finish.

コンペ期間中は、夜中まで slack が動いているなどそれはそれは楽しい時間だった。

わかったこと

  • 当初 0 sub であってもチームマージしてデータを見るとがっつりやっちゃうのが kaggler だった。

  • チーム戦はめちゃくちゃ勉強になるし、楽しい。

  • チームメイトに迷惑をかけられないといういい緊張感がある。


役割分担

  • kaerururu リーダー、自分のパートをひたすら改善, 手が回らないところを拾う
  • u++ 司令塔, discussion追う, 類似過去コンペの検証、external特徴作成, データクレンジング, u++特徴量作成, catboost検証, 猫カフェ
  • ynktk 提出コードの大枠作成, NN 検証 postprocess、高速化、Stacking
  • takuoko ソースコードマージ、NN実装、LGBM
  • gege gege part の改善, 実務でのデータ分析経験を活かしたinsight で作成した特徴作成

上で書いたのはほんの一例ですが、いい具合に得意分野や使える時間のバランスが取れていたと思います。


ソースコードの管理など

ペットコンペは、kernel 限定コンペという kaggle 上で提供されている実行環境 ( = Kernel ) で書かれたコードにより出力された提出ファイルしか提出できないコンペでした。

従来のコンペでは、 各々がローカル環境やクラウド環境など各々環境を構築し、それぞれが計算し、 npy, feather... などの形式で保存した特徴量ファイルを融通し合い、誰か一人がそれらの特徴を load して model の計算を行うなどしてチーム運営がなされていたと聞きます。(私自身チーム戦が初めてだったので伝聞口調です。)

一方、カーネルコンペでは、特徴量の生成〜モデリング(アンサンブル)〜 postprocess までを一気通貫で行う(しかもGPUカーネルの実行時間制限の2h に収めないといけない)必要があり従来のチーム戦に慣れていたチームメイトは勝手が違うために戸惑っていたようです。

また notebook 形式で書かれた kernel は実行単位でセルが分かれていることもあり、まとまりがない書き方をしても気にならないためソースコードマージが大変だったとチームメイトの takuoko さんは言っていました。

結果的に、kaeru (notebook), gegeさん(noteboook), ynktk & takuoko & u++ 諸氏 (script) で途中まで各々進め、マージするタイミングでとてもとても見やすい ynktk さんの script ( with 文で実行単位ごとに区切るような形で記述 )をベースに takuoko さんが鋭意マージしてくださり、3000~4000行の大作になりました。

それ以降は、with 文で区切られた自分のパートの中を書き換え --> 自分のモデルのスコアを確認 --> 良さげだったら、全体で回してサブミット する流れでやっていきました。

今回のコンペを通じて、script 記法という慣れない記法に慣れることができ(むしろ終盤は script 万歳状態だった)こう言った形での成長もあるんだなーといった感じです。


感想

私は初めてのチーム戦だったのですが、最高の仲間と競技で世界2位になるという最高の結果を得られたのでとても最高な2ヶ月ほどでした。

もっともっと勉強して、また Wodori でコンペに出よう!となったらいいなあと思う深夜3時でした。

以上ポエムでした。

Google Colaboratory で fastText の pretrained model のSetup をする。

こんばんは、かえるるる(@kaeru_nantoka)です。今回は、fastText の公式ページだと説明が不親切だなーと感じたので 「pretrained の fasttext を GoogleColaboratory で利用する」というタイトルで手順を備忘録として残しておきます。

ソースは例のごとく GitHub (https://github.com/osuossu8/Utils/blob/master/fastText_pretrained_Setup.ipynb) においていますので必要に応じてご参照ください。


目次

1. 動機

2. ソースコードと説明

3. 感想


1 : 動機

公式ページ (https://fasttext.cc/docs/en/english-vectors.html)のわかりやすいところに連携されている pretrained model は .vec の形式で与えられていました。

gensim のラッパーとして提供されている FastText.load_fasttext_format や KeyedVectors.load_word2vec_format やら試したものの未知語に出会うとエラーに。。未知語でもよしなにしてくれるのが fasttextの利点じゃなかったっけ・・??

どうやら、 .bin 形式で与えられているものがいいらしいということで FastText.load_fasttext_format を試してみるもエラー。。

もう自力でビルドするしかないとソース引っ張ってきてやってみた次第です。


2 : ソースコードと説明

# Colab だと tmp ディレクトリに落としてきて、ドライブで解凍すれば容量食わないからいい感じです
!wget  https://dl.fbaipublicfiles.com/fasttext/vectors-english/wiki-news-300d-1M-subword.bin.zip

!unzip wiki-news-300d-1M-subword.bin.zip -d drive/My\ Drive

!git clone https://github.com/facebookresearch/fastText.git

!cd fastText;sudo pip install .

import fastText

# なかなか時間かかる
model = fastText.FastText.load_model('drive/My Drive/wiki-news-300d-1M-subword.bin')
print(model)

# インスタンスの説明(どんなメソッドがあるかなど)が見られます。
# とても便利
print(help(fastText.FastText._FastText))


import numpy as np
import pandas as pd

# class でラップして使っています
class fastTextVectorizer:
    def __init__(self):
        self.model = model
 
    def get(self,corpus):
        vec = []
        # 空のリストが渡ってきたときにゼロベクトルで埋めるようにしてます
        if len(corpus) != 0:
            for p in corpus:
                vec.append(model.get_word_vector(p))
        else:
            vec.append(np.zeros(300))

        return np.array(vec)

Vectorizer = fastTextVectorizer()

sentance = "Kaerururu likes kaggle very much"

corpus = sentance.split(' ')

print(corpus)
# [out]
# ['Kaerururu', 'likes', 'kaggle', 'very', 'much']

vec = Vectorizer.get(corpus)

print(vec)

"""
[out]
array([[ 0.00479189,  0.00076622, -0.00025739, ..., -0.00490327,
        -0.00920221, -0.014365  ],
       [ 0.01596881,  0.04688494,  0.00066695, ...,  0.01253003,
         0.0161329 , -0.00909959],
       [ 0.01079815,  0.0054005 , -0.01178535, ...,  0.00313774,
         0.00204078, -0.00597636],
       [ 0.00384124, -0.06426769,  0.02252812, ..., -0.00964052,
        -0.01634751, -0.00016563],
       [ 0.00118656, -0.03619536,  0.0089293 , ..., -0.01233855,
         0.02183427, -0.01065825]], dtype=float32)
"""

'kaerururu' といった単語もきちんとベクトル化してくれました。


3 : 感想

bin が 7GB くらいあるのでなかなか容量持っていかれますが、Colab だとデフォルトで 15GB 割り当てあるし、色んな単語を vector 化できて楽しいので割にはあるんじゃないかなーと思います。また BERT や ELMo が盛り上がってきて fastText 使いたいのに古い情報しかないぞ・・・!!!と困った私みたいな方に届いたら嬉しいなーと思います。

あと GitHub が充実していくのって楽しいです。

以上です、ありがとうございました。

PyTorch NN を用いて Titanic コンペに挑戦する。

こんばんは、かえるるる(@kaeru_nantoka)です。今回は、テーブルデータに Neural Network (以下 NN) を応用してみる Tutorial として PyTorch で Titanic 問題に取り組んでみたので、そのソースコードと説明をご紹介できればと思います。

今回のソースコードは、kaggle kernel に公開設定で置いております( https://www.kaggle.com/kaerunantoka/titanic-pytorch-nn-tutorial?scriptVersionId=12211278 ) ので、質問やアドバイスなど大歓迎です。


目次

1. 動機

2. 参考 kernel 集

3. ソースコードの説明

4. 感想など

5. Todo


1 : 動機

https://twitter.com/nyanp/status/1111242580765769728

こちらの Nomi さんのスライドにも言及されているように、昨今の kaggle で上位入賞を果たしている方(チーム)はほとんど木系のモデルのみではなく、NN でもモデリングをしてアンサンブルすることでスコアを伸ばしています。

そんな重要な知見であるテーブルデータにおける NN ですが、ネットで調べてみてもほとんど出てこず、自分で勉強していく中で何か参考になる簡単な問題に対して適用されたコードがあればいいなと思いましたので、復習としてまとめたものを output しようと思った次第です。


2: 参考kernel集

今回の私のコードを書くにあたって参考にしたカーネルです。ネットで調べてもほとんど出てこず〜と上では書きましたが、PyTorch の docs で勉強し、うまい書き方ないかなと、過去コンペのコードを漁っていた傍、参考になりそうなものはありました。こちらにまとめておきます。

i : Quora コンペより

( https://www.kaggle.com/hengzheng/pytorch-starter )

model.fit() の引数で ループ数を回す keras と異なり、PyTorch では、 dataloader というデータと正解ラベルを n個づつ返す iterater のループを、さらに epoch数のループで回すような見慣れない書き方をします。

それプラス Kfold のループを回すような書き方を探していた時に見つけたカーネルです。 Quora コンペも Titanic コンペと同じ 2値分類タスクなので、評価指標の f1-score の部分を acc に書き換える実装をして他の部分はほとんどそのまま使っています。

i i : TwoSigma コンペより

( https://www.kaggle.com/christofhenkel/market-data-nn-baseline )

NN 自体は keras での実装ですが、NN に特徴量を投入する前の前処理部分を参考にしました。カテゴリカルデータ(文字などの数値で与えられていない特徴量や一応数値では与えられているが数値としての意味を持たないもの(男性、女性を 0, 1 として表して与えられているもの))の encoding や numerical データ(数値がそのままの意味を持っているデータ。金額や人数など)を正則化するなど最低限の前処理がなされております。


3: ソースコードの説明

[2] PyTorch の利点である 「seed を簡単に固定できる」 を実現してくれる部分です。

    def seed_everything(seed=1234):
        random.seed(seed)
        os.environ['PYTHONHASHSEED'] = str(seed)
        tf.set_random_seed(seed)
        np.random.seed(seed)
        torch.manual_seed(seed)
        torch.cuda.manual_seed(seed)
        torch.backends.cudnn.deterministic = True
    kaeru_seed = 1337
    seed_everything(seed=kaeru_seed)

[5] categorical columns と numerical columns を指定します。 cat_cols は今回は数値でないものを適当に指定しています。

num_cols はテーブルによっては非常に多くなることもあるので、list(set()) を使用すると簡単に取得できます。

cat_cols = ['Cabin','Embarked','Name','Sex','Ticket',]

num_cols = list(set(train.columns) - set(cat_cols) - set(["Survived"]))

[6] [7] categorical columns と numerical columns それぞれの前処理の部分です。

def encode(encoder, x):
    len_encoder = len(encoder)
    try:
        id = encoder[x]
    except KeyError:
        id = len_encoder
    return id

encoders = [{} for cat in cat_cols]


for i, cat in enumerate(cat_cols):
    print('encoding %s ...' % cat, end=' ')
    encoders[i] = {l: id for id, l in enumerate(train.loc[:, cat].astype(str).unique())}
    train[cat] = train[cat].astype(str).apply(lambda x: encode(encoders[i], x))
    print('Done')

embed_sizes = [len(encoder) for encoder in encoders]

# =====

from sklearn.preprocessing import StandardScaler
 
train[num_cols] = train[num_cols].fillna(0)
print('scaling numerical columns')

scaler = StandardScaler()
train[num_cols] = scaler.fit_transform(train[num_cols])

[8] [9] 今回は私の練習として、自作の層を定義してそれを利用するような NN にしてます。

nn.Sequential() は keras の sequential model と同じように使えます。

自作レイヤーを使わずに net を定義し直すと、

net = nn.Sequential( nn.Linear(12, 32) nn.ReLU(), nn.Dropout(0.5), nn.Linear(32, 1) )

というように書けます。

class CustomLinear(nn.Module):
    def __init__(self, in_features,
                 out_features,
                 bias=True, p=0.5):
        super().__init__()
        self.linear = nn.Linear(in_features,
                               out_features,
                               bias)
        self.relu = nn.ReLU()
        self.drop = nn.Dropout(p)
        
    def forward(self, x):
        x = self.linear(x)
        x = self.relu(x)
        x = self.drop(x)
        return x

net = nn.Sequential(CustomLinear(12, 32),
                    nn.Linear(32, 1))

入力は 12次元 (targetを除いたもの), 出力は 1次元です。 のちに、BCEWithLogitsLoss を最小化するように計算して sigmoid 関数で 0,1 の2値分類を解く形になっています。 (誤りがあったら教えてくださいm( )m)

# Kfold のループ部分
for i, (train_idx, valid_idx) in enumerate(splits):

    # X_train, y_train, X_val, y_val をテンソル化(PyTorch で扱える形に変換)し、 .cuda() (GPUで計算するために特徴量を GPU に渡す処理)をする。
    x_train_fold = torch.tensor(X_train[train_idx], dtype=torch.float32).cuda()
    y_train_fold = torch.tensor(y_train[train_idx, np.newaxis], dtype=torch.float32).cuda()
    x_val_fold = torch.tensor(X_train[valid_idx], dtype=torch.float32).cuda()
    y_val_fold = torch.tensor(y_train[valid_idx, np.newaxis], dtype=torch.float32).cuda()
    
    # model を呼び出して、
    model = net
    # model も GPU に渡す。
    model.cuda()
    
    # loss 関数を呼び出す。BCELoss() よりも好まれるらしい。。
    loss_fn = torch.nn.BCEWithLogitsLoss(reduction="sum")
    optimizer = torch.optim.Adam(model.parameters())
    
    # dataloader で扱える形( = Dataset )にする
    train = torch.utils.data.TensorDataset(x_train_fold, y_train_fold)
    valid = torch.utils.data.TensorDataset(x_val_fold, y_val_fold)
    
    # x_train_fold batch_size個, y_train_fold batch_size個ずつを各ループで返す iterater の定義
    train_loader = torch.utils.data.DataLoader(train, batch_size=batch_size, shuffle=True)
    # x_valid_fold batch_size個, y_valid_fold batch_size個ずつを各ループで返す iterater の定義
    valid_loader = torch.utils.data.DataLoader(valid, batch_size=batch_size, shuffle=False)
    
    print(f'Fold {i + 1}')
    
    # epoch 分のループを回す
    for epoch in range(train_epochs):
        start_time = time.time()
        
        # model を train mode にする
        model.train()
        avg_loss = 0.

        # x_train_fold と y_train_fold を batch_size 個ずつ渡すループ
        for x_batch, y_batch in tqdm(train_loader, disable=True):
            # predict
            y_pred = model(x_batch)
            # loss の計算
            loss = loss_fn(y_pred, y_batch)
            optimizer.zero_grad()
            loss.backward()
            optimizer.step()
            avg_loss += loss.item() / len(train_loader)
        
        model.eval()
        valid_preds_fold = np.zeros((x_val_fold.size(0)))
        test_preds_fold = np.zeros(len(X_test))
        avg_val_loss = 0.
        for i, (x_batch, y_batch) in enumerate(valid_loader):
            y_pred = model(x_batch).detach()
            avg_val_loss += loss_fn(y_pred, y_batch).item() / len(valid_loader)
            valid_preds_fold[i * batch_size:(i+1) * batch_size] = sigmoid(y_pred.cpu().numpy())[:, 0]
        
        elapsed_time = time.time() - start_time 
        print('Epoch {}/{} \t loss={:.4f} \t val_loss={:.4f} \t time={:.2f}s'.format(
            epoch + 1, train_epochs, avg_loss, avg_val_loss, elapsed_time))

    # X_test_fold を batch_size ずつ渡すループ    
    for i, (x_batch,) in enumerate(test_loader):
        y_pred = model(x_batch).detach()

        # batch_size のリストのリストになっているのを単一階層のリストに変換して、cpuに値を渡し、テンソルから numpy.array()に変換したものを sigmoid 関数に渡す
        test_preds_fold[i * batch_size:(i+1) * batch_size] = sigmoid(y_pred.cpu().numpy())[:, 0]

    train_preds[valid_idx] = valid_preds_fold

    # 予測値の kfold数で割った値を加える
    test_preds += test_preds_fold / len(splits)

[15] 最後に予測値に対して閾値を決めて 予測値 を 0, 1 の形に変換する。

from sklearn.metrics import accuracy_score

def threshold_search(y_true, y_proba):
    best_threshold = 0
    best_score = 0
    for threshold in tqdm([i * 0.01 for i in range(100)]):
        score = accuracy_score(y_true=y_true, y_pred=y_proba > threshold)
        if score > best_score:
            best_threshold = threshold
            best_score = score
    search_result = {'threshold': best_threshold, 'accuracy_score': best_score}
    return search_result

この submission は、LB 0.66985 でした。

遠い昔、簡単に前処理と特徴量エンジニアリングして決定木にかけた時の最高スコアが、0.71770 だったので初めてにしては悪すぎずといったところでしょうか :)


4 : 感想

今回の目標である、テーブルデータに対して PyTorch の NN を適用することはできました。今後はこのコードを使いまわして、過去コンペの NN 縛り LateSubmission チャレンジをやってみようかなと思ってます。


5 : Todo

・出力1, BCELogitsLoss --> 出力2, CrossEntropyLoss でやってみる

・LGBM とアンサンブルしてどれくらいのスコアの上がり幅になるか見る。


以上です。ありがとうございました

日本語版 ELMo のチュートリアル (2019/02/23)

かえるるる(@kaeru_nantoka)です。

今回は、「日本語 ELMo の Tutorial 」と題して、私が来たる 4月より join するストックマーク社が公開した(一応掲載許可はもらいました) pre-trained model ELMo の日本語 ver を Google Colaboratory で扱う手順をご紹介します。

日本語版 ELMo についての詳細は、ストックマーク社のホームページをご覧ください。 ( https://stockmark.ai/2019/01/25/783/

私の GitHubリポジトリ( https://github.com/osuossu8/Utils/blob/master/ELMo_ja_Try.ipynb )

に公開しております、ソースコードのセル番号と Agenda に沿って、ご説明いたしますので、合わせてご覧ください。

それでは、やっていきましょう。


Agenda

  1. MeCab の設定をする
  2. ELMoForManyLangs を clone する
  3. 日本語版 ELMo を wget する
  4. 必要なその他パッケージを入れる
  5. Config file の設定をする
  6. 実験してみる

1 ) MeCab の設定をする。

英文と異なり、日本語文は単語毎の切れ目が(プログラム目線で)わかりにくいため、「分かち書き」といって文章を単語毎に区切る前処理が必要になります。

Google Colab 上でのセットアップは下記記事の通りにやったところ 2019/02/23 現在できました。 ( https://qiita.com/pytry3g/items/897ae738b8fbd3ae7893

セル上の [1]-[3] のコマンドを実行するだけです。


2. ELMoForManyLangs を clone する

3. 日本語版 ELMo を wget する

2, 3 では 元のELMo と日本語版ELMo 本体をDL してます。git clone やら wget やらして最後に unzip で 解凍します。


4. 必要なその他パッケージを入れる

[9] [10] で overrides というパッケージを一旦アンインストールしてインストールし直しています。 overrides はデフォルトで入っているようなのですが、デフォルトのままだと後のセルでエラーを吐いちゃうので入れ直しています。

Google Colab 上だとこれで良いのですが、GCP でやる場合は、テキストで記述している h5py, torch もインストールする必要があります。


5. Config file の設定をする

設定ファイルをいじります。

デフォルトだとディレクトリごと必要な json ファイルがないので、

ja/configs/cnn_0_100_512_4096.json

となるようにディレクトリと json ファイルを用意します。

そして、Colab 上だと vi, vim が使えなかったので(使っている方いらしたら教えてください。。)、マジックコマンドの %%writefile を使いました。

%%writefile ファイル名 とセルの最初にかくと、そのセルの記述内容がファイルに書き込まれるようです。

ここまで準備が完了すると、[15]セルのように日本語を埋め込みベクトルに変換することができます。


6. 実験してみる

ELMo の強みは、文意を汲み取って同じ単語でも意味が異なればきちんと別なベクトルで表現することができる点です。

英語版の実験ですと、以下の記事で言及されているものがわかりやすいです。 ( https://qiita.com/tktktks10/items/a189f88e6e963c441c8f )

ということで、似たような文意だが単語の役割がことなる3つの以下の文章

  1. "かえるるるはその本を読んだ"
  2. "かえるるるは流行りの小説を読んだ"
  3. "かえるるるが買ったマンガ

の文ベクトルの cos類似度を見てみる実験をして見ました。以下その解説です。

ぱっと見、1 と 2 は 「SがOをVした」という内容で 2 と 3 は「SがVしたO」という内容なので文意が若干異なります。違いがきちんと数字に現れるでしょうか。。

(もっと適切な例文があるよという方はアドバイスくださると嬉しいです。マサカリお待ちしてます。)

・[18] 文章を分かち書きします。(文章(str) -> 単語リスト)

・[19] 単語リストを ELMo に投入します。 (単語リスト -> ベクトルのリスト)

[20] にあるように、vector_list[0] に投入した単語の数だけのベクトルができています。 str2_vec の場合は、["かえる", "るる", "が", "買っ", "た", "マンガ"] の6語投入したので、str2_vec[0][0] ~ str2_vec[0][5] までの6つベクトルができています。shape を見てみると全単語 1024次元で表現されています。

・[0(21)] 分かち書きして得られた単語をインプットに単語毎のベクトルを得ることができたのでこれらを足し合わせて文ベクトルとします。

sum をとったり mean をとったりするらしいです。今回は、sum を用いますが、このような単純な線形和でもちゃんと work するらしいです。

[22] 単語ベクトルの線形結合ベクトルをインプットに cos 類似度を求めます。

かえるるるはその本を読んだ かえるるるは流行りの小説を読んだ similarity = 0.9651474 かえるるるはその本を読んだ かえるるるが買ったマンガ similarity = 0.9467888

となりました。

はじめの予測通り「SがOをVした」という内容が同じものは1.0に近く(文意が似ている)、「SがVしたO」というように同じような単語が並んでいながらも文脈が異なるように使用されているものはより1.0から離れた結果になりました。


終わりに

Google Colab という取っ掛かりやすい環境で日本語で学習した ELMo の環境構築及び簡単な実験まで紹介いたしました。

これを機会にNLPに興味を持ってくださる方が増えたら嬉しいです。

ありがとうございました!

営業マンが1年でSEになって機械学習エンジニアに転職する話

こんばんは、かえるるる(@kaeru_nantoka)です。

先日、10ヶ月勤めたSES企業に辞意を伝えました。 そして4月からは、ストックマーク株式会社(https://stockmark.ai/ )にて、NLPを応用した機械学習エンジンを開発する機械学習エンジニアとして参画することになりました。

ちょうどいい人生の節目なので、流行っている転(退)職エントリを描いてみようと思います。


概要

・営業職だけど趣味で始めたプログラミングにハマったよ

・未経験だけど第二新卒的なアレでプログラマーになるぞ

・ひょんなことから kaggle にハマったぞ

・なんか上京することになったよ

・なんで私がエクセル職人に!?

・なんとかソロ銅メダル取れたぞ

・kaggle 強くなりたいからもう一度転職するぞ!


筆者のスペック

・経済学部卒

・プログラミング歴1年ちょい(2017年12月~)

・kaggle(機械学習)歴半年ちょい (2018年8月~)


目次

I ) 証券時代(職種: 営業)

I I ) 転職活動(1)

I I I ) SES企業時代(職種: C#プログラマー)

I V ) 金融系SIer時代(職種: エクセル職人)

V ) 転職活動(2)

V I ) おまけ


I )

新卒では大手証券会社に入社し、営業職をしておりました。

金融商品の営業は難しい仕事であるという認識はあったものの、色々あって(この内容でもう一本書けそう)私の社会人経験はこの仕事でスタートしました。日経新聞を毎日読み、風が吹けば桶屋が儲かると言わんばかりに記事の一つ一つを無理やり取り扱い金融商品の値動きで締めくくるような営業トークを朝練習して、金融商品のパンフレットを持って個人宅や各種法人に突撃する日々を過ごしていました。

金融の勉強は面白かったし、この商品はイイぞと思える商品もあったのですが、突然来た若造が売りに来た値下がりするかもしれない金融商品を買うでしょうか?それ以前に、「金融商品買ってください」で締めくくられる話を聞く気になるでしょうか?

そもそも、金融商品の良さを知ってる人は自分でやってます。

結局、練りに練った営業トークは聞き入れられることもなく数字は上がりませんでした。

中々数字が上がらないので上司に相談したりしました。「運もあるからね。仕方ないよ。これだけ頑張ってたらどこかで報われるよ。」と励ましてくれましたが、「結局最後は運なのか」と思いました。

別部署へ異動したいという考えもありましたが、資格が必要で、その資格の要件に「実務経験3年以上」というものがあり、この環境を出るためにこの環境に3年も居続けなければならず、さらに資格を取っても配属面談やら人事考課やら、大企業ならではのプロセスがあり不確実です。そして、自分の人生なのに自分の職種を会社が決め、さらに数年経ったらローテーションで職種も変わり、転勤で住む場所も変わりうるという所謂一般的な大企業の人事制度が自分に合わないなと思うようになりました。

そこで、「自分の努力がダイレクトに返ってくる。自分の人生を自分である程度はハンドリングできる実力をつけられる。そんな環境で勝負したい。」と思い、当時流行り始めていたプログラミングを始めることにしました。もともと「ブラッディマンデイ」や「王様達のヴァイキング」といった漫画が好きで、プログラミングできたらカッコイイし、やってみたいけどやり方分からんの状態だったので 「PythonGUIRPGゲームを作ろう」みたいな本からはじめました。


I I )

見る見るプログラミングにハマりました。 自分の書いたコードがそれなりの形になって画面上に表示されることの喜び、理解には時間がかかるものの時間をかけたら何とか動かせたことに「自分の努力がダイレクトに返ってくる体験」を覚えました。もともと営業仕事を終え自宅に帰ってからの時間でやっていて楽しく感じていたので、「これだけコードを書くのが楽しければ、仕事でつまづいても業後の時間を全て割いてでもキャッチアップしたい」「社会人1年目で第2新卒枠として年収を下げてでもチャレンジする最後のチャンス」だと思い、マイナビ転職、リクナビネクスト、greenなどに登録し、未経験OKかつコードを書かせてくれそうなところに片っ端からエントリーしては面接しました。営業職からの異業種転職ということで面接では結構苦労しましたが、最終的に地元のSES企業5社から内定をもらい、金融関係にシステムの受託開発をしているという現職の内定をお受けすることにしました。

ここでの決め手は、金銭面と業務面です。金銭面では、プログラミング未経験でありながら金融機関での経験を買ってもらい当時の給与を少し下がるくらいの水準で給与提示してくれました。(他の4社は実務未経験なので額面月17万からスタートみたいなのが多くコレは生活できんぞ…と思ってました。)業務面では金融関係のドメインを使えるということで「1年でやめてしまうはずの金融の知識を引き続き使えるならちょっとお得だな」と思ったのとコードかけるよと言ってもらったからです。他の数社では、コードを書けるのは案件次第だったり、案件のない隙間の期間で別の非コーディングの案件に入ってもらうという話でした。

利用言語はJava ということでしたが、自分のスキルとして残り、それで勝負できるという働き方ができるならそれでもいいかと納得して4月からその会社に勤めることとなりました。


I I I )

入社してから2ヶ月間は、研修と称し、Java + HTML + CSS + 生JS + MySQL で顧客管理システムを作ったり、使わなくなったPCに ubuntu を入れて自作サーバーを作るなどしてLinux の扱いなどを学ぶ傍ら、金融系の受託案件のコーディングを手伝うなどさせてもらってました。それから9月まで、別な金融機関向けのスマホアプリの案件ということで C# を用いた開発のコーディングを手伝わせてもらってました。残業で次の日の朝に帰るようなこともあり受託開発の厳しさを知るもののコーディングしている満足感から辞めたいとまでは感じませんでした。どちらかというとデスマーチさえも楽しめていたと思います。

一方プライベートでは、このころ Twitter アカウント(かえるるる)が誕生しました。 ツイッターの世界では、自作のWEBアプリを公開し、たくさんのいいねやRTをもらっている先人たちがおり、すごいなと思って見てました。

「わいもバズるアプリ作ってアルファアカウントになるんや!!」と意気込み、Django でその場で聴ける簡単な楽曲投稿サービスを半月ほどで作成しリリースしました。6月くらいだったと思います。これがめちゃくちゃバズ...らず、ユーザー志向のサービスを作るのは難しいなあなどと考えていました。

そんな中、Qiita で顔判別AI を作ろうみたいな記事を見つけ、この技術は面白い、これを応用したらすごいアプリが作れそうだと思いました。 使われていたのは keras でした。

画像は自分で用意しましたが、実装の部分は写経して何とか動くものを作りました。これだとオリジナリティがないので、元ネタはWebアプリとしてリリースしていたものを、LINE-BOT API + Heroku + flask に書き換え、顔判別LINE-BOT 「塩顔しょうゆ顔ソース顔判別ちゃん」通称もこみちLINE-BOTを無事リリースしました。これはなかなかバズって友達登録数39人、200いいね近くいきました。

( https://twitter.com/kaeru_nantoka/status/1041705619705610240 )

ちなみに画像は Google Custom Search API なるものを使って全部で 400枚ほど集めましたが、被りが多く素材集めに大変苦労しました。

実は、この「AI使ったアプリ作り楽しいけど画像集め大変やん...」がきっかけで、無料でビッグデータを使用して機械学習に取り組めるサービスを探し、Kaggle にたどり着いたのです。

Kaggle は titanic, homecredit, サンタンデール、Two sigma, 塩コンペなどのカーネルを見てやり方に慣れていきました。

ド初心者の私でも(今でも駆け出しですが)、XGB というものに入れられるように データを云々して、出てきたデータをさらに云々して、 to_csv すればええんやくらいの理解で写経を中心に取り組んでいたのですが、それでもめちゃくちゃ楽しかったです。よって、業務ではC#をかいて、帰ったらkaggle をやるという今のスタイルに近い形が8-9月で出来上がりました。


I V )

そんなある日社長から言い渡されます。「SEとして東京に行くんやで」 正直えっと思いましたが、今度は Java ということではあるが引き続きコードを書けるということだったし、このころには何人かの kaggler の方をフォローしており東京に行くのも悪くないなと快諾しました。

10月に東京に来てからの業務は、9割方 Excel を使用したものでした。 プロジェクトは引き続き、金融機関向けのアプリの作成業務で、オフショアのコーディングをしてくださる方のために、仕様書を起こしたり、画面のイメージやレイアウトをお伝えするために画面キャプチャをエクセル上で切った貼ったするものばかりでした。 正直騙されたわ。。。と思ったもののこの頃はまだ定時で帰ることができていたので、「とにかく定時で帰れるように頑張って仕事を調整して、一秒でも長く kaggle する時間を確保できるようにしよう」の思いで日々過ごしていました。

一方プライベートでは、 Twitterで繋がった kaggler の方とお話しする機会を設けてもらったり、 PLAsTiCCコンペに夜な夜な取り組んだり、kaggle meetup tokyo に一回でも submit したことのある枠で参加させていただいたり東京に住んでいるメリットをフルパワーで享受していました。

仕事の話に戻ると、12月頃から残業が多くなって来ました。 というのもアプリの画面開発に際して、(自称)アジャイルな開発体制をとっていたのですが、作ってはここを変えてくれ、作ってはここを変えてくれの繰り返しで一向に進展しませんでした。そのように手戻りは多いものの、「営業で使うから」や「役員にプレゼンするから」今日中に仕上げてくれみたいな支持を受けることがままあり、「そういったことがあるなら事前に教えておいてほしいな」などと思いながら残業に甘んじていました。

個別の仕事自体はそれほどしんどくないし、何なら kaggle やっている方が頭をめちゃくちゃ使うくらいの認識だったので残業そのものは何ともありませんでしたが、エクセル仕事、特に VBAマクロのようなコードを書く仕事ではなく何も身に付かない仕事で残業を強いられるのが辛くて堪りませんでした。 また、kaggle をする時間が圧迫されるのも我慢なりませんでした。

このプロジェクトにコーディングをする仕事がないかというとそうでもないですが、新卒社員を中心にコーディングの仕事が割り振られていたようでした。SES社員には特別なスキルのいらない仕事を振っておいて、自社の社員にはきちんとコーディングを教えるというのはとても理にかなっていることだと思います。

こういった事情から、この会社にいてもずっとテイよく一労働力として搾取され続けるんだろうなと思うようになり、転職したいなと思うようになりました。 しかし、社会人二年目にして早くも二社も退職してしまうのは少し気が引けたのと、「どうせ転職するなら kaggler のいるような職場がいいなあ。でもこれといった実績もないなあ。どうしようかなあ。」というような気持ちでした。

この辺りから、kaggle でソロメダルを獲得してそれを実績として捉えてくれるところに転職しようという目標ができました。


V )

転職の動機

上記のような不満も多少なりともありましたが、直接的な動機は kaggle で強くなりたい。という気持ちでした。

わたしの知る範囲内の先輩 kaggler は理系で大学院を出た方、或いは大学に在学中で余暇は関連の技術論文を読み漁っては実装しているなどの数理的な背景、技術のために惜しみなく時間を使っている(時間を使える環境にある)といった印象を受けました。

私も「時間がない」という理由は甘えでしかないと考えており、18:30定時に会社を出られた日は20時から、残業で20時くらいに会社を出ることになったらタクシーを利用するなどして時間と体力を温存しつつ、22時くらいから26~27時くらいまで kaggle に取り組んでいました。

上京してそうした暮らしを2ヶ月ほど続けて、やっとの想いで PLAsTiCCコンペにてソロ銅メダルを獲得(ボーダーから数えて3番目くらい)しました。

銀メダル圏も見えていましたが、最後の最後まで Public LB では届きませんでした。その上 Private LB でのシェイクダウンによりこの成績です。

「ソロメダルを獲得する」という当初の目標は達成できましたが、同時に「こんなに時間を投入してもギリギリ銅メダルなのか」と厳しさを実感しました。

経済学部卒で在学中はプログラミングもまともに勉強したことがなく、論文といえば日本語の歴史系のものを卒業のために何本か読んだことのあるくらいでした。

そんな普通の文系卒の私が、「日中エクセルに画面キャプチャを何時間も貼って過ごして平日業後と土日にちょちょいとキャッチアップする生活を続けて kaggle で勝てるのか?」と考え、日中の時間も機械学習モデリングEDAができる環境に飛び込みたいと考えるようになりました。

転職活動

今回は以下のツールを使用しました。

Twitter

Wantedly

企業フォームからの直接の応募

ヒヨコの方のように、Twitter 転職でかっこよく決めたかったのですが、今回は Wantedly で転職予定の会社と出会いました。

有名どころのWeb企業の機械学習エンジニア職には直接企業の応募フォームからエントリーしましたが、こちらで応募した会社はことごとく書類落ちしました。

両ツールを通してたくさんの方と面談させていたくことができたのでとても勉強になりました。

転職活動の軸

kaggler と働きたいな~職場の人とチーム組んでコンペに参加したいな~などと思ってましたが、最終的には

「業務で得た知見を kaggle で活かす、kaggle で得た知見を業務で活かす」

のサイクルを確立した働き方がしたい

という想いに賛同頂ける会社

の一本に落ち着きました。

現場社員の方との面談や技術面談、CTOの方との面談で上記の話は必ずしました。

この話をして「うちならできるよ」や「うちでやってる人いるよ」などの返答が返ってくる場合は、既に kaggler が活躍されているなどで kaggler に対する理解があるかつ kaggler が満足して働ける環境がある会社ということなので、「ぜひ今すぐに私も混ぜてください~」という気持ちになってました。

持論ですが、kaggler が満足して働けている会社はいい会社です。

職務経歴書

職務経歴書を書き始めました。

そこには、

1年で新卒で入った証券営業職を辞め、転職先のSES企業でコーディング半年(しかもC#)、最後の数ヶ月に至ってはエクセル職人(それっぽく書くと、オフショアのプログラマの方々への作業依頼書の作成含むのディレクション業務 になりました。)

の悲惨な業務経験の2年目社会人がいました。

「こんなんで機械学習エンジニアになりたいとかどうかしてるぞ…?てか社会人2年目で2社目を辞めようとしてるのか私は…?これサラリーマン向いてないんじゃ…」 ととても悩みました。

kaggleソロ銅メダル、これを評価してくれる会社があればいいなとダメ元で進むことにしました。

最終的には、独学短期間でkaggleソロ銅メダルを評価していただいたことが内定獲得に大いに貢献してくれました。

内定を受諾した決め手

内定は今回お世話になる1社のみですが、数社選考の途中で辞退させていただきました。いずれの会社も面接で私がやりたいことに対してとても関心を示してくださり、魅力的で自分が三人くらいに分身できたら全部の会社の選考を最後まで受けたかったです。

決め手は、自社サービスを運営している点とNLP技術に特化している点でした。 先にも述べた通り、私はこの世界で生きていくことを考えたときにあまりにも背景が弱いです。よってこれからこの分野は自信を持って得意と言えるぞ、というものが欲しかったのです。NLP は前処理も多岐にわたり学習済みのモデルも日進月歩で進歩しています。また、使用技術がNNなのも魅力的でした。昨今の kaggle ではテーブルデータについてもNNを使用してモデルを作り、アンサンブルすることで上位に食い込んでいるチームが多いです。よって、業務でNNに取り組める環境は私の kaggle で強くなりたいという目標の実現を加速させるものだと思いました。 自社サービスである点については、単純に前職が、受託開発とSESだったので、一回自分の会社のプロダクトを成長させるために注力してみたい気持ちがあったからです。

転職活動を終えて思うこと

今回の転職活動において、kaggle ソロ銅メダルはとても大きな仕事をしてくれました。

コンペ途中に、最終的に銀メダルを獲得するチームとチームマージさせていただけるかもしれない機運があったのですが、「ソロ」の実績が欲しかったこともあり、お断りしてしまいました。kaggle master になるには、金一枚と銀二枚以上のメダルが必要ということもあり、勿体無いことしたなあと思ったこともありますが、今ではあの決断は間違ってなかったなあとも思います。

なにはともあれ、4月から昼も夜も機械学習に塗れた生活を送れるということで楽しみで仕方ありません。

これからげきつよkaggler になれるよう精進していく所存ですので、どうぞよろしくお願いします。


V I )

SIer勤務kaggler として辛かったこと

日中kaggleに全く関係のないことで時間が削れていくつらみもありましたが、最もつらかったのは「話題がない」ことでした。

上京し kaggle meetup や コンペの反省会を通じて知り合った方々との勉強会に参加させていただく機会がチラホラ増えてきたのですが、その勉強会後の飲み会での話題にとても困りました。

勉強会に参加されてる方同士の会話では「(さまざまな業界で分析業務に従事されてる方々が)実務においてどのように技術を活用しているか」や「コンペで使われてたあの手法について」などが主で、私を含めてそう言った会話をしに(聞きに)来ているという認識でした。

したがって私の「エクセルに画面キャプチャを貼っている愚痴」のような話題でみなさんの貴重な時間を奪うのは誰も幸せにならないと思い、聴講マシーンになってました。

実はここで見聞きしたことは、面接や面談で大いに活きました。というのも「実際に分析業務に携わっている方の関心」「kaggle と実務でのデータやモデルの扱いの違い」について業務未経験ながら背景知識やその業務に従事することのイメージを持つことができ、質問したい内容が自然出てきたり、自分がその御社で働くことになったとしたらどういうような働き方をしそうかのようなところのすり合わせがスムーズにできたように実感しています。


以上です、ありがとうございました。

【追記】 一部日本語の使い方に誤りがある点をご指摘いただきましたので訂正致しました。 ご指摘くださった皆様、どうもありがとうございました。