Python入門トップページ


目次

  1. 協調フィルタリングによる推薦システム
  2. 顧客間の類似度に基づいた手法
  3. 個別データを順にマージしてみる
  4. 個別データを一気にマージしてみる
  5. 行列分解
  6. サンプルコードのまとめ

協調フィルタリングによる推薦システムを作ってみよう

行列分解

目次に戻る

データの読み込み

ここでは,行列分解 (matrix factorization) による協調フィルタリングを実装してみます.まず,Pandas,NumPy に加えて scipy.optimize ライブラリをインポートします.

import pandas as pd
import numpy as np
import scipy.optimize as optimize

次に,GitHub のリポジトリから行列形式のレイティングデータをデータフレームに読み込みます.

url = "https://github.com/rinsaka/sample-data-sets/blob/master/collaborative_filtering_matrix.csv?raw=true";
df = pd.read_csv(url)
print(df)
   id   name    A    B    C    D    E
0   0    Eto  5.0  4.0  3.0  NaN  NaN
1   1   Sato  NaN  2.0  4.0  2.0  3.0
2   2   Kato  2.0  3.0  4.0  NaN  NaN
3   3   Muto  2.0  3.0  2.0  NaN  2.0
4   4   Kito  4.0  3.0  3.0  4.0  NaN
5   5   Goto  2.0  5.0  NaN  2.0  3.0
6   6   Bito  3.0  3.0  2.0  NaN  1.0
7   7  Saito  4.0  4.0  5.0  NaN  5.0
8   8  Naito  5.0  5.0  4.0  2.0  1.0
9   9   Koto  3.0  NaN  2.0  2.0  2.0

目次に戻る

目的と方法

目的は顧客 Kato( と Eto )に対して商品「D」と商品「E」のどちらを優先的におすすめすべきかを決めることです.顧客の好みが異なれば自ずとおすすめする商品も異なるはずです.

ここでは,行列分解と呼ばれる協調フィルタリングを考えます.この手法ではおおむね次のようなステップで顧客に対するおすすめ商品を決定します.

まず顧客によるレイティング行列 \(\bf{Y}\) が与えられ,\(i\) 行 \(j\) 列要素である \(Y_{ij}\) が顧客 \(i\) が商品 \(j\) のレイティングであるとします.ただし,レイティング行列の要素のすべてが観測されている必要はありません.

顧客 \(i\) が商品 \(j\) に対して与えるスコアを \(s_{ij}\) として,次のように仮定します. \begin{eqnarray} s_{ij} &=& {\boldsymbol{u}}_i^{\prime} {\boldsymbol{v}}_j \end{eqnarray} ここで,\({\boldsymbol{u}}_i\) は顧客 \(i\) の潜在因子 (latent factor) で,\({\boldsymbol{v}}_j\) は商品 \(j\) の潜在因子です.また,\({\boldsymbol{u}}_i\),\({\boldsymbol{v}}_j\) はいずれも \(L\) 次元のベクトルです.

行列因子分解では次の最適化問題を解くことで \({\boldsymbol{u}}_i\) と \({\boldsymbol{v}}_j\) の最尤推定ができるようになります. \begin{eqnarray} \newcommand{\argmin}{\mathop{\rm arg~min}\limits} \argmin_{{\boldsymbol{u}}_i, {\boldsymbol{v}}_j, \forall_i \forall_j} \sum_{(i, j) \in \Omega} \left( y_{ij} - {\boldsymbol{u}}_i^{\prime} {\boldsymbol{v}}_j \right)^2 \end{eqnarray}

なお,上の方法では過学習してしまう傾向がある.したがって,\(L_2\) ノルムによる正則化が用いられることが多い. \begin{eqnarray} \newcommand{\argmin}{\mathop{\rm arg~min}\limits} \argmin_{{\boldsymbol{u}}_i, {\boldsymbol{v}}_j, \forall_i \forall_j} \sum_{(i, j) \in \Omega} \left( y_{ij} - {\boldsymbol{u}}_i^{\prime} {\boldsymbol{v}}_j \right)^2 + \lambda_1 \sum_{i} || {\boldsymbol{u}}_i ||^2 + \lambda_2 \sum_{j} || {\boldsymbol{v}}_j ||^2 \end{eqnarray}

これから行列因子分解の手順を確認しながらコードを記述していきます.

目次に戻る

パラメータの設定

すでに読み込んでいる Pandas のデータフレームからレイティングに関する列だけを取得して NumPy 配列に格納し,レイティング行列 y を生成します.

y = df.iloc[:, 2:].values
print(y)
[[ 5.  4.  3. nan nan]
 [nan  2.  4.  2.  3.]
 [ 2.  3.  4. nan nan]
 [ 2.  3.  2. nan  2.]
 [ 4.  3.  3.  4. nan]
 [ 2.  5. nan  2.  3.]
 [ 3.  3.  2. nan  1.]
 [ 4.  4.  5. nan  5.]
 [ 5.  5.  4.  2.  1.]
 [ 3. nan  2.  2.  2.]]

顧客数 \(M\) は行列 \(\bf Y\) の行数,アイテム数 \(N\) は列数に対応するので,これらの情報を取得しておきます.

M, N = y.shape
print("顧客数 M =", M)
print("アイテム数 N =",N)
顧客数 M = 10
アイテム数 N = 5

次に潜在因子数 \(L\) をとりあえず 3 に設定します.この値は最終的には十分に議論する必要があるでしょう.

L = 3
print("潜在因子数 L =", L)
潜在因子数 L = 3

目次に戻る

スコアの計算手順

まず,仮の潜在因子行列を1で初期化し,顧客 2 の潜在因子ベクトル \({\boldsymbol{u}}_2\) だけ別の値を設定します.

U = np.ones((M, L))
U[2, 0] = 1
U[2, 1] = 2
U[2, 2] = 3
print(U)
[[1. 1. 1.]
 [1. 1. 1.]
 [1. 2. 3.]
 [1. 1. 1.]
 [1. 1. 1.]
 [1. 1. 1.]
 [1. 1. 1.]
 [1. 1. 1.]
 [1. 1. 1.]
 [1. 1. 1.]]

同様に仮の潜在因子行列を 1 で初期化し,商品ID=0 (商品A)と商品ID=1 (商品B)の潜在因子ベクトル \({\boldsymbol{v}}_0\), \({\boldsymbol{v}}_1\) についてだけ別の値を設定します.

V = np.ones((N, L))
V[0, 0] = 3; V[0, 1] = 1; V[0, 2] = -1
V[1, 0] = -2; V[1, 1] = 1; V[1, 2] = 3
print(V)
[[ 3.  1. -1.]
 [-2.  1.  3.]
 [ 1.  1.  1.]
 [ 1.  1.  1.]
 [ 1.  1.  1.]]

2つの潜在因子行列からスコアは \begin{eqnarray} s_{ij} &=& {\boldsymbol{u}}_i^{\prime} {\boldsymbol{v}}_j \end{eqnarray} を使って計算できます.ここで,\({\boldsymbol{u}}_2 = \left(\begin{array}{c}1&2&3\end{array} \right)\) は行列 \(\bf U\) の \(2\) 行目の要素である(ただし先頭が0行目としています)ので,\({\boldsymbol{u}}_2^{\prime}\) はこれを転置した \begin{eqnarray} {\boldsymbol{u}}_2^{\prime} = \left( \begin{array}{c} 1 \\ 2 \\ 3 \end{array} \right) \end{eqnarray} となります.また,\({\boldsymbol{v}}_0 = \left(\begin{array}{c}3&1&-1\end{array} \right)\) は行列 \(\bf V\) の \(0\) 行目の要素です.したがって,\(s_{2,0}\) は \begin{eqnarray} s_{2,0} &=& {\boldsymbol{u}}_2^{\prime} {\boldsymbol{v}}_0 \\ &=& \left( \begin{array}{c} 1 \\ 2 \\ 3 \end{array} \right) \left(\begin{array}{c}3&1&-1\end{array} \right) \\ &=& 1 \times 3 + 2 \times 1 + 3 \times (-1) \\ &=& 2 \end{eqnarray} となります.つまり,顧客2の商品「A」のスコアは 2 となりました.さらに,\(s_{2,1}\) は \begin{eqnarray} s_{2,1} &=& {\boldsymbol{u}}_2^{\prime} {\boldsymbol{v}}_1 \\ &=& \left( \begin{array}{c} 1 \\ 2 \\ 3 \end{array} \right) \left(\begin{array}{c}-2&1&3\end{array} \right) \\ &=& 1 \times (-2) + 2 \times 1 + 3 \times 3 \\ &=& 9 \end{eqnarray} となります.

これは,商品ごとに実際には観測できない3種類の属性(特性・特徴など)があり,商品「A」の属性が 3, 1, -1 で商品「B」の属性が -2, 1, 3 であることを意味しています.また,顧客にも実際には観測できない3種類の属性に対する反応の重みがあり,顧客2の Kato さんは 1, 2, 3 の重みで商品「A」や「B」を評価することを意味しています.この結果,Kato さんの商品「A」に対するスコアは 2, 商品「B」に対するスコアは 9 となったことを意味しています.

Python では次のように導出することができます.

s = np.dot(U, V.T)
print(s)
[[3. 2. 3. 3. 3.]
 [3. 2. 3. 3. 3.]
 [2. 9. 6. 6. 6.]
 [3. 2. 3. 3. 3.]
 [3. 2. 3. 3. 3.]
 [3. 2. 3. 3. 3.]
 [3. 2. 3. 3. 3.]
 [3. 2. 3. 3. 3.]
 [3. 2. 3. 3. 3.]
 [3. 2. 3. 3. 3.]]

レイティングとその推定値の差は次にように計算できます.

print(y-s)
[[ 2.  2.  0. nan nan]
 [nan  0.  1. -1.  0.]
 [ 0. -6. -2. nan nan]
 [-1.  1. -1. nan -1.]
 [ 1.  1.  0.  1. nan]
 [-1.  3. nan -1.  0.]
 [ 0.  1. -1. nan -2.]
 [ 1.  2.  2. nan  2.]
 [ 2.  3.  1. -1. -2.]
 [ 0. nan -1. -1. -1.]]

2乗誤差を求めてみます.

print((y-s)**2)
[[ 4.  4.  0. nan nan]
 [nan  0.  1.  1.  0.]
 [ 0. 36.  4. nan nan]
 [ 1.  1.  1. nan  1.]
 [ 1.  1.  0.  1. nan]
 [ 1.  9. nan  1.  0.]
 [ 0.  1.  1. nan  4.]
 [ 1.  4.  4. nan  4.]
 [ 4.  9.  1.  1.  4.]
 [ 0. nan  1.  1.  1.]]

2乗誤差について行ごとの,つまり,顧客ごとの和を計算します.

print(np.nansum((y-s)**2, axis=1))
[ 8.  2. 40.  4.  3. 11.  6. 13. 19.  3.]

2乗誤差について列ごとの,つまり,アイテムごとの和を計算します.

print(np.nansum((y-s)**2, axis=0))
[12. 65. 13.  5. 14.]

2乗誤差について総和を計算します.これは 109.0 となりました.

print(np.nansum((y-s)**2))
109.0

これは目的関数である \begin{eqnarray} \sum_{(i, j) \in \Omega} \left( y_{ij} - {\boldsymbol{u}}_i^{\prime} {\boldsymbol{v}}_j \right)^2 \end{eqnarray} を求めたことになります.つまり,この2乗誤差の総和が最小化されるように \({\boldsymbol{u}}_i\) と \({\boldsymbol{v}}_j\) を決めれば良いということになります.

目次に戻る

行列の連結と一次元化

上で求めた2乗誤差の総和が最小化されるように最適な \({\boldsymbol{u}}_i\) と \({\boldsymbol{v}}_j\) を求めるために,scipy.optimize.minimize() を利用します.このとき,scipy.optimize.minimize() に与える独立変数は1次元配列の形式でなければなりません.今回は2つの行列を与えたいので,この2つの行列を連結した上で1次元配列に変形します.

まず行列 \({\bf{U}}\) の形状を確認すると,10行3列であることがわかります.

print(U)
[[1. 1. 1.]
 [1. 1. 1.]
 [1. 2. 3.]
 [1. 1. 1.]
 [1. 1. 1.]
 [1. 1. 1.]
 [1. 1. 1.]
 [1. 1. 1.]
 [1. 1. 1.]
 [1. 1. 1.]]

次に,行列 \({\bf{V}}\) の形状は5行3列です.

print(V)
[[ 3.  1. -1.]
 [-2.  1.  3.]
 [ 1.  1.  1.]
 [ 1.  1.  1.]
 [ 1.  1.  1.]]

行列 \({\bf{U}}\) と 行列 \({\bf{V}}\) の列数が等しいのでこれらを連結します.

print(np.concatenate([U,V]))
[[ 1.  1.  1.]
 [ 1.  1.  1.]
 [ 1.  2.  3.]
 [ 1.  1.  1.]
 [ 1.  1.  1.]
 [ 1.  1.  1.]
 [ 1.  1.  1.]
 [ 1.  1.  1.]
 [ 1.  1.  1.]
 [ 1.  1.  1.]
 [ 3.  1. -1.]
 [-2.  1.  3.]
 [ 1.  1.  1.]
 [ 1.  1.  1.]
 [ 1.  1.  1.]]

さらに,これを1次元配列に変形して UV に代入します.これで45個の要素からなる1次元配列となりました.

UV = np.concatenate([U,V]).ravel()
print(UV)
[ 1.  1.  1.  1.  1.  1.  1.  2.  3.  1.  1.  1.  1.  1.  1.  1.  1.  1.
  1.  1.  1.  1.  1.  1.  1.  1.  1.  1.  1.  1.  3.  1. -1. -2.  1.  3.
  1.  1.  1.  1.  1.  1.  1.  1.  1.]

目次に戻る

目的関数の定義

すでに目的関数を求める手順は示しましたが,これを関数化します.このとき,独立変数は1次元配列として受け取るようして,関数内部で2つの行列に戻すようにしておきます.

def get_rss_UV(UV, Y, M, N, L):
    """
    目的関数
    行列Uと行列Vを一つの一次元配列にした UV を受け取り,行列 U と V に分割・変換して演算する
    """
    u, v = np.split(UV, [M*L])
    u = u.reshape(M, L)
    v = v.reshape(N, L)
    S = np.dot(u, v.T)
    return np.nansum((Y-S)**2)

いま定義した関数を呼び出して2乗誤差和が正しく計算できることを確認しておきます.この結果,すでに求めた 109.0 と同じ結果が得られました.

get_rss_UV(UV, y, M, N, L)
109.0

目次に戻る

最適化

では,2乗誤差和が最小となるような最適化を行います.まず,行列 \({\bf{U}}\), \({\bf{V}}\) の初期値は \([-1, 1)\) の一様乱数で与えることにします.

# 乱数列の初期化
# rng = np.random.default_rng()
rng = np.random.default_rng(seed=1)

# -1, 1 の一様乱数
U = 2.0 * rng.random((M, L)) - 1.0
V = 2.0 * rng.random((N, L)) - 1.0
UV = np.concatenate((U.ravel(), V.ravel()))
print(UV)
[ 0.02364325  0.90092739 -0.71168077  0.89729889 -0.3763371  -0.1533471
  0.65540519 -0.18160173  0.09918738 -0.94488177  0.50702622  0.07628663
 -0.34053657  0.57685741 -0.39361034 -0.09300422 -0.73191661 -0.19377403
 -0.59308952 -0.47537332  0.50072935 -0.43918248 -0.02961805  0.9614744
  0.92331439  0.44957988  0.08245371 -0.44621759 -0.67869598  0.93985083
  0.03213717 -0.76826878  0.24697951  0.55336623  0.2260066   0.83459541
 -0.92081425  0.05717853 -0.08132823 -0.87530084  0.28265634  0.70526568
  0.18588204 -0.4798051   0.67976304]

なお,初期値での目的関数値は 431.76 です.

get_rss_UV(UV, y, M, N, L)
431.76386648930963

scipy.optimize.minimize() を使って最適化します.このとき,最適化アルゴリズムにはネルダーミード法を使い,許容誤差 (tol) は 0.0001,最大繰り返し回数 (maxiter) は500万回に設定しています.これらは適宜調整が必要であると思われます.この結果,最適化が成功し,目的関数の最小値が 12.2078 となりました.

results = optimize.minimize(
    get_rss_UV, UV, args=(y, M, N, L),
    method='Nelder-Mead',
    tol=0.0001,
    options={'maxiter': 5000000}
)
# print(results) # すべての結果を表示する場合はここを有効に
print('    fun:', results.fun)
print('message:', results.message)
print(' status:', results.status)
print('success:', results.success)
    fun: 12.207832863842437
message: Optimization terminated successfully.
 status: 0
success: True

得られた解とスコアを表示します.この結果,スコア \(s\) はレイティング行列 \(y\) に概ね近い値になっていることがわかります.しかしながら,レイティング行列 \(y\) が空値であった箇所については絶対値が極端に大きな値になっています.これは学習データに過剰に適合してしまっている過学習が起こっていることを意味します.この原因は,行列 \({\bf{U}}\), \({\bf{V}}\) の最適解の一部に絶対値の大きな値があることです.

u, v = np.split(results.x, [M*L])
u = u.reshape(M, L)
v = v.reshape(N, L)
print('----- u -------')
print(u)
print('----- v -------')
print(v)
s = np.dot(u, v.T)
print('----- s -------')
print(s)
print('----- y -------')
print(y)
print('----- rss -------')
print(np.nansum((y-s)**2))
----- u -------
[[ -1.84483415  15.2549905    2.03027648]
 [ 10.70843083   7.23954367   7.15756714]
 [ 69.44203798 -15.98362663   6.15724206]
 [  6.41755363   6.80627507  -3.55627257]
 [ 16.57083391   5.53658216   4.63700957]
 [ -0.63057754  10.98170147  11.79829532]
 [  1.54415554  10.0359197  -10.91546251]
 [ 17.60849346   1.3853028   74.81469818]
 [ 40.18609307   1.65017966  -0.33745077]
 [ -9.36769073  11.16237258  12.38702279]]
----- v -------
[[ 0.1011784   0.30259552  0.02206816]
 [ 0.10642664  0.29480638  0.02350972]
 [ 0.10258458  0.2207409   0.03979995]
 [-0.23717967  5.89901935 -5.33362684]
 [ 0.028456    0.19921554  0.05683091]]
----- s -------
[[   4.47423889    4.34866028    3.25895367   79.59830412    3.10191706]
 [   3.43206968    3.44219837    2.98145412    1.99059385    2.15371974]
 [   2.32533923    2.82316252    3.8405003  -143.59839398   -0.85822284]
 [   2.63038573    2.605925      2.01922585   57.59606588    1.33642743]
 [   3.45428563    3.50481269    3.10661496    3.99806162    1.83803827]
 [   3.51957953    3.44774007    2.82899472    2.00312502    2.84028977]
 [   2.95217534    2.86637296    1.93930958  117.054846      1.42291597]
 [   3.85180836    4.04128162    5.08977445 -395.03813086    5.02882858]
 [   4.5578545     4.75542087    4.47330519    2.00295389    1.45309908]
 [   2.70323482    2.5849823     1.99601444    2.00112037    2.66111693]]
----- y -------
[[ 5.  4.  3. nan nan]
 [nan  2.  4.  2.  3.]
 [ 2.  3.  4. nan nan]
 [ 2.  3.  2. nan  2.]
 [ 4.  3.  3.  4. nan]
 [ 2.  5. nan  2.  3.]
 [ 3.  3.  2. nan  1.]
 [ 4.  4.  5. nan  5.]
 [ 5.  5.  4.  2.  1.]
 [ 3. nan  2.  2.  2.]]
----- rss -------
12.207832863842437

目次に戻る

正則化

ここでは,正則化と呼ばれる手法によって,過学習を抑える方法について説明します.ここでは \(L_2\) ノルムによる正則化項を加えた目的関数を考えます. \begin{eqnarray} \newcommand{\argmin}{\mathop{\rm arg~min}\limits} \argmin_{{\boldsymbol{u}}_i, {\boldsymbol{v}}_j, \forall_i \forall_j} \sum_{(i, j) \in \Omega} \left( y_{ij} - {\boldsymbol{u}}_i^{\prime} {\boldsymbol{v}}_j \right)^2 + \lambda_1 \sum_{i} || {\boldsymbol{u}}_i ||^2 + \lambda_2 \sum_{j} || {\boldsymbol{v}}_j ||^2 \end{eqnarray} これにより \({\bf{U}}\), \({\bf{V}}\) の推定値の絶対値も小さくするように働きます.

目的関数を次のように定義します.

def get_L2rss_UV(UV, Y, M, N, L, lam1, lam2):
    """
    L2正則化項を加えた目的関数
    UとVを一つの一次元配列にした UV を受け取り,行列 U と V に変換して演算する
    """
    u, v = np.split(UV, [M*L])
    u = u.reshape(M, L)
    v = v.reshape(N, L)
    S = np.dot(u, v.T)
    # L2 ノルム
    ul2 = np.linalg.norm(u, ord=2)
    vl2 = np.linalg.norm(v, ord=2)
    return np.nansum((Y-S)**2 + lam1 * ul2 + lam2 * vl2)

当初設定した \({\bf{U}}\), \({\bf{V}}\) の値を使って新たな目的関数の値を計算してみます.なお,\(\lambda_1\) と \(\lambda_2\) には 0.01 (=1.0E-02)という値を設定しています.これも今後調整が必要と考えられるパラメータです.具体的にはクロスバリデーションなどの方法が利用して,\(\lambda_1\) と \(\lambda_2\) に加えて \(L\) についても調整すると良いでしょう.

U = np.ones((M, L))
U[2, 0] = 1; U[2, 1] = 2; U[2, 2] = 3
V = np.ones((N, L))
V[0, 0] = 3; V[0, 1] = 1; V[0, 2] = -1
UV = np.concatenate((U.ravel(), V.ravel()))

lam1 = 1.0E-02
lam2 = 1.0E-02
get_L2rss_UV(UV, y, M, N, L, lam1, lam2)
68.08783560041476

実際に最適化を行ってみます.この結果,\({\bf{U}}\), \({\bf{V}}\) の推定値の絶対値に極端に大きな値がなくなり,スコアにも極端な値がなくなったように感じられます.なお,次のページでは \(\lambda_1\) と \(\lambda_2\) に 0.001 (=1.0E-03) という値を使って更によい解が得られたことを示しています.

# 乱数列の初期化
# rng = np.random.default_rng()
rng = np.random.default_rng(seed=1)

# -1, 1 の一様乱数
U = 2.0 * rng.random((M, L)) - 1.0
V = 2.0 * rng.random((N, L)) - 1.0
UV = np.concatenate((U.ravel(), V.ravel()))

lam1 = 1.0E-02
lam2 = 1.0E-02
results = optimize.minimize(
    get_L2rss_UV, UV, args=(y, M, N, L, lam1, lam2),
    method='Nelder-Mead',
    tol=0.001,
    options={'maxiter': 5000000}
)
print('    fun:', results.fun)
print('message:', results.message)
print(' status:', results.status)
print('success:', results.success)
u, v = np.split(results.x, [M*L])
u = u.reshape(M, L)
v = v.reshape(N, L)
print('----- u -------')
print(u)
print('----- v -------')
print(v)
s = np.dot(u, v.T)
print('----- s -------')
print(s)
print('----- y -------')
print(y)
print('----- rss -------')
print(np.nansum((y-s)**2))
    fun: 13.406992209328342
message: Optimization terminated successfully.
 status: 0
success: True
----- u -------
[[ 0.04098309 -4.81081941  0.68066707]
 [-2.23070994 -1.08647246  0.57560576]
 [-1.8191153  -1.24851435  0.54590293]
 [-1.45130049 -0.13043863  0.589127  ]
 [-2.6985349  -0.92598208  1.05618577]
 [-0.59720387  5.40464284  1.92510512]
 [-1.5068065  -0.99914193  0.82605094]
 [-4.34701384 -0.04191034  1.38414397]
 [-2.13730849 -2.00906105  1.48049473]
 [-1.65503366 -0.27836622  1.01245636]]
----- v -------
[[ 0.04399872 -0.63946629  2.87307265]
 [ 0.13971729 -0.30749091  3.46279125]
 [-1.26963864 -0.70198582 -0.25119014]
 [-1.62566413  0.43633427 -0.55435834]
 [-1.14166808  0.41326705  0.08087173]]
----- s -------
[[ 5.03376599  3.84201726  3.15411642 -2.54308358 -1.97989552]
 [ 2.2503713   2.01561424  3.4502973   2.83322811  2.1442773 ]
 [ 2.28676289  2.02009286  3.048933    2.10987504  1.60500414]
 [ 1.71216043  1.87736076  1.78621036  1.97582484  1.65064118]
 [ 3.5079007   3.56504994  3.81088702  3.39736829  2.78356886]
 [ 2.04860376  4.92091891 -3.51931692  2.26188574  3.07105599]
 [ 2.9459244   2.95714212  2.40698737  1.55567318  1.37416461]
 [ 3.81228341  4.1985357   5.2008739   6.28118581  5.05746491]
 [ 5.44425691  5.44579326  3.75205614  1.77719896  1.72954832]
 [ 3.01404713  3.36028329  2.04238477  2.0078045   1.85633861]]
----- y -------
[[ 5.  4.  3. nan nan]
 [nan  2.  4.  2.  3.]
 [ 2.  3.  4. nan nan]
 [ 2.  3.  2. nan  2.]
 [ 4.  3.  3.  4. nan]
 [ 2.  5. nan  2.  3.]
 [ 3.  3.  2. nan  1.]
 [ 4.  4.  5. nan  5.]
 [ 5.  5.  4.  2.  1.]
 [ 3. nan  2.  2.  2.]]
----- rss -------
8.391952104006844

なお,このページでは小さなデータセットについて,\({\bf{U}}\) と \({\bf{V}}\) を一気に最適化する方法を採用しました.しかしこれは大きなデータセットではうまく動作しない可能性があります.実際上は交互最小二乗法や確率的勾配降下法などの最適化手法を利用する必要があるかもしれません.これらの詳細は参考図書を参照してください.

目次に戻る