b2010/ogura/10class
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
単語検索
|
最終更新
|
ヘルプ
|
ログイン
]
開始行:
*10classでの実験 [#o46bfffe]
学習データ0: 780 1: 779 2: 780 3: 719 4: 780 5: 720...
テストデータ0: 363 1: 364 2: 364 3: 336 4: 364 5: 3...
で行う実験
-svmのみ
-線形判別分析後のsvm
-カーネル判別分析後のsvm
の三つで実験を行う。使うsvmは線形カーネルを用いる
-svmのみ以下結果
nu = 0.820249
obj = -1178.674326, rho = -0.383629
nSV = 1185, nBSV = 1174
Total nSV = 7464
Accuracy = 16.6953% (584/3498) (classification)
考察
かなり低い識別率を表した原因として
過学習が原因だと思われる
16次元しかないため、学習データがいくら豊富でも
クラス内データがそれぞればらばらすぎるところにあるのだと...
これにより、他のクラスに侵入するデータが多いのだと思う...
つまりソフトマージンパラメタをいじらないことには、識別率...
他のカーネル関数をもちいた場合
nu = 0.413984
obj = -374.166801, rho = -0.116431
nSV = 916, nBSV = 331
Total nSV = 5451
Accuracy = 82.2184% (2876/3498) (classification)
と高い識別率を出すことができる。
実験の方法としては、間違っていなさそう..
-線形判別分析後のsvm以後結果
nu = 0.025573
obj = -36.680372, rho = -33.018008
nSV = 41, nBSV = 32
Total nSV = 1566
Accuracy = 87.9646% (3077/3498) (classification)
これは、だとうな識別結果だと思う。
16→9次元変換はあまりデータを無駄にしない変換なので
まあまあの識別結果だと思う。
ただ、NN法にはかなわないな..
終了行:
*10classでの実験 [#o46bfffe]
学習データ0: 780 1: 779 2: 780 3: 719 4: 780 5: 720...
テストデータ0: 363 1: 364 2: 364 3: 336 4: 364 5: 3...
で行う実験
-svmのみ
-線形判別分析後のsvm
-カーネル判別分析後のsvm
の三つで実験を行う。使うsvmは線形カーネルを用いる
-svmのみ以下結果
nu = 0.820249
obj = -1178.674326, rho = -0.383629
nSV = 1185, nBSV = 1174
Total nSV = 7464
Accuracy = 16.6953% (584/3498) (classification)
考察
かなり低い識別率を表した原因として
過学習が原因だと思われる
16次元しかないため、学習データがいくら豊富でも
クラス内データがそれぞればらばらすぎるところにあるのだと...
これにより、他のクラスに侵入するデータが多いのだと思う...
つまりソフトマージンパラメタをいじらないことには、識別率...
他のカーネル関数をもちいた場合
nu = 0.413984
obj = -374.166801, rho = -0.116431
nSV = 916, nBSV = 331
Total nSV = 5451
Accuracy = 82.2184% (2876/3498) (classification)
と高い識別率を出すことができる。
実験の方法としては、間違っていなさそう..
-線形判別分析後のsvm以後結果
nu = 0.025573
obj = -36.680372, rho = -33.018008
nSV = 41, nBSV = 32
Total nSV = 1566
Accuracy = 87.9646% (3077/3498) (classification)
これは、だとうな識別結果だと思う。
16→9次元変換はあまりデータを無駄にしない変換なので
まあまあの識別結果だと思う。
ただ、NN法にはかなわないな..
ページ名: