Re:ゼロから始めるML生活

どちらかといえばエミリア派です

Python

基本的な推薦アルゴリズムを書いて眺める

この記事は (1人で)基礎から学ぶ推薦システム Advent Calendar 2022の11日目の記事です。 推薦関係のアルゴリズムは現在でも新しいアルゴリズムがありますが、古典的なアルゴリズムとして協調フィルタリング〜Factorization Machineが挙げられると思います…

recsys-pythonをやる (第13章 推薦順位に基づく正確性)

この記事は (1人で)基礎から学ぶ推薦システム Advent Calendar 2022の7日目の記事です。 前回に引き続きrecsys-pythonをやっていきます。 www.nogawanogawa.com 今回は13章をやっていきたいと思います。

recsys-pythonをやる (第11章 嗜好予測の正確性・第12章 好き嫌い分類に基づく評価指標)

この記事は (1人で)基礎から学ぶ推薦システム Advent Calendar 2022の6日目の記事です。 前回に引き続きrecsys-pythonをやっていきます。 www.nogawanogawa.com 今回は11章からやっていきたいと思います。

recsys-pythonをやる (第9章 単純ベイズ分類器・第10章 決定木)

この記事は(1人で)基礎から学ぶ推薦システム Advent Calendar 2022の5日目の記事です。 前回に引き続きrecsys-pythonをやっていきます。 www.nogawanogawa.com 今回は9章・10章をやっていきたいと思います。

recsys-pythonをやる (第7章 評価履歴の次元削減・第8章 評価値行列の次元削減)

この記事は (1人で)基礎から学ぶ推薦システム Advent Calendar 2022の4日目の記事です。 前回に引き続きrecsys-pythonをやっていきます。 www.nogawanogawa.com 今回は7章からやっていきたいと思います。

recsys-pythonをやる (第5章 ユーザベース協調フィルタリング・第6章 アイテムベース協調フィルタリング)

この記事は (1人で)基礎から学ぶ推薦システム Advent Calendar 2022の3日目の記事です。 前回に引き続きrecsys-pythonをやっていきます。 www.nogawanogawa.com 前回は4章までだったので、今回は5章からやっていきたいと思います。

recsys-pythonをやる (第3章 類似度に基づく推薦・第4章 k近傍法)

この記事は (1人で)基礎から学ぶ推薦システム Advent Calendar 2022の2日目の記事です。 前回に引き続きrecsys-pythonをやっていきます。 www.nogawanogawa.com 今回は3章からやっていきたいと思います。

recsys-pythonをやる (第1章 評価履歴・第2章 評価値行列)

この記事は (1人で)基礎から学ぶ推薦システム Advent Calendar 2022の1日目の記事です。 2022年に、こちらの問題集が公開されました。 recsyslab.github.io こちらは下記の書籍に関連する問題集らしく、下記の文献を読みながらやってみたのでそのメモです…

Recsim NGを使ってみる(その2)

この前、RecSim NGのチュートリアルをやってました。 www.nogawanogawa.com このときは特に強化学習っぽいところまで行きませんでした。 今回は確率的シミュレーションに関するチュートリアルをやってみたいと思います。

RecSim NGを使ってみる

先日とあるチュートリアルを聞いていたところ、RecSimというライブラリが使用されていました。 どうやら、推薦を行うエージェントがコーパスやユーザーと対話する推薦システム環境をシミュレーションするライブラリのようでした。 こちらのライブラリが2019…

形態素解析器をいろいろ試す

日本語自然言語処理を行う際に、形態素解析をどうするかという問題はいつもつきまとってきます。 今回記事を書こうと思ったのは、Vaporettoなる形態素解析器を見かけたからです。 こちらに興味が湧いたのと、他の形態素解析器と比較してみたくなったので、や…

MLFlowでLightGBMの学習結果をtrackingしてみる

結構前にMLFlowをいろいろ触ってみていたんですが、最近全然触っていなかったので色々見てみました。 www.nogawanogawa.com 前に自分が触っていたときよりだいぶ使いやすくなってたので、今回は最近の自分の用途に合わせて改めてMLFlowを使ってみます。

A/Bテストで使用される検定を試してみる

最近A/Bテストについて勉強してました。*1 この前、こちらの記事を拝見しました。 www.rco.recruit.co.jp この手の検定の話は結構苦手意識があり、良い機会だったので勉強してみたので今回はそのメモです。 *1:https://www.nogawanogawa.com/entry/ab_testing

SHAPを使ってみた

先日こちらの記事を見かけました。 towardsdatascience.com 機械学習モデルの解釈についてあまり勉強したことがなく、いい機会だったので上記の記事を参考に勉強してみたので、今回はそのメモです。

xfeatを使ってみる

pfn-researchから公開されているxfeatという特徴量エンジニアリングのライブラリがあります。 【リリース】特徴量エンジニアリングのライブラリ xfeat を公開しました。データフレームから特徴量を作成するための各種エンコーダーを実装しています。cuDF を…

時系列クラスタリングってやつをやってみる

複数の時系列データがあるとき、これらを傾向に従ってクラスタリングしたくなることがあります。 そういった手法を、時系列クラスタリングと呼ぶらしいです。 ちょっと調べてみると、こちらの記事を見かけました。 時系列クラスタリングの研究サーベイ論文を…

ベイズ構造時系列モデルってやつをやってみる

時系列分析というと、SARIMAモデルや状態空間モデルなどがよく使われているかと思います。 私自身、これらのモデルについて一つの系列データについてモデルを適用したことはありますが、複数の系列データが影響するようなモデルについては扱ってきませんでし…

k-meansのいい感じのクラスタ数を自動で設定したい

教師なし分類の代表的な手法として、k-meansがあります。 k-meansは分類自体は自動で出来るんですが、その際のクラス数はマニュアルで設定する必要があります。 そのため、どう分類されるかはここで指定するクラス数に強く依存するわけです。 この辺は人間の…

Microsoft Vision Model ResNet-50 を使ってみる

先日、こちらのツイートを拝見しました。 https://t.co/LUuVrYQo7nMicrosoftが非常に高性能な学習済みResNet50のモデルを公開。複数の大規模なデータセットでマルチタスク学習を行なっている。GoogleのBig Transfer, OpenAIのClipを超える転移学習の性能をし…

EfficientNetを使ってみたメモ

普段あまり画像をデータを取り扱うことがないんですが、最近ちょっといじってたりします。 www.nogawanogawa.com そんなことをやってるところに、何やらEfficientNetなどという代物があるということを見かけました。 更に調べてみると結構すごいやつというこ…

ResNetのPyTorch学習済みモデルをfine tuneして使うときのメモ

普段画像データを使って機械学習をすることがあまりないんですが、色々あって最近ちょくちょく触っています。 そんなわけで、画像認識で使うニューラルネットワークの勉強をしていて、最近では画像認識のベースラインとして使用されることもあるResNetについ…

nlplotを使ってみた

最近、昨年書かれたこちらの記事を見かけました。 www.takapy.work なんだか非常に良さそうな感じで実際に使ってみたので、今回は使ってみたときのメモです。

Prophetでお手軽時系列分析をやる

最近時系列分析を勉強し直してました。 www.nogawanogawa.com この過程で調べてると、何やらProphetなるライブラリがあるようで、今回はそれを使ってみたのでそのメモです。

Pythonで時系列分析をやりながら復習する

最近時系列系のデータについて扱う機会があって、その関係でちょっと勉強してました。 世の中に時系列分析の本はそこそこ出ている印象ですが、多くの場合でR言語での実装が紹介されており、Pythonでの実装が紹介されている文献はあまり多くない印象です。 と…

Optunaを使ってみる

結構前にmlflowを使ってOptunaのチューニングの過程を可視化することをやってみてました。 その時はmlflowの勉強の意図だったので、Optunaについてはあんまりわかってませんでした。 今回は、Optunaの使い方を中心に勉強してみたいと思います。

タスク固有に追加学習したBERTのEmbeddingをLightGBMに突っ込んで使用する

この前は学習済みのBERTをから取り出したEmbeddigを使ってLightGBMに突っ込んでみるところまでやってみました。 その時は特にタスク個別にBERTを学習させていなかったので、今回はタスク向けに転移学習させたBERTをモデルを使用して、そのEmbeddingをLightGB…

学習済みのBERTからEmbeddingを取得する

最近はちょいちょいBERTとかを使って遊んでたりします。 今回は、学習済みのBERTのモデルを使って、文書Embedgingを取得してみたいと思います。 参考にさせていただいたのはこちらの記事です。 yag-ays.github.io 毎度のことながら、やることは上の記事とほ…

LightGBMで含意関係認識をしてみる

この前はBERTを使って含意関係認識をやってみました。 前回は何も考えずにとにかくBERTに突っ込んで、とりあえずやってみたって感じでした。 今回は、もう少し泥臭い方法で含意関係認識をやってみたいと思います。 今回参考にさせていただいたのはこちら。 w…

BERTを用いて含意関係認識をやってみる

この前は、BERTを使って文章の空欄を埋めるタスクをやってみました。 今回はBERTの勉強がてら含意関係認識(Recognizing Textual Entailment, RTE)というタスクをやってみたいと思います。 今回非常に参考にさせていただいたのはこちらの記事です。 hironsan.…

GiNZAを使って係り受け解析をやってみる

結構前にGiNZAを使った固有表現抽出で遊んでました。 www.nogawanogawa.com GiNZAは固有表現抽出の他にも、自然言語処理の様々な機能を備えており、今回はその中の係り受け解析で遊んでみたいと思います。