スケーリング 機械 学習

スケーリング 機械 学習

【機械学習】特徴量スケーリング (Feature Scaling)とは. 特徴量のスケーリングとは、機械学習モデルを構築する上で広く用いられるデータの前処理手法であり、「 特徴量が取りうる値の範囲を変える・異なる特徴量同士の尺度を統一すること 」を意味します。 特徴量スケーリングの重要性. 機械学習モデルを構築する上で 特徴量のスケーリングは実施した方が良い場合としなくても良い場合 があります。 その見分け方は「 特徴量の尺度の違いが機械学習アルゴリズムに影響を与えるかどうか 」で判断できます。 下記の概念図をもとにイメージを掴んでみましょう。 図:クラスタリングの実例に基づくFeature Scalingの重要性解説. 上図では教師なし学習であるクラスタリングを例に挙げています。 スケーリングとは、機械学習でデータセットの特徴量の範囲を統一する処理のことです。 異なるスケールの特徴量が混在していると、モデルの性能に影響を与える可能性があります。 スケーリングについて、分かりやすく簡単にまとめておきますね。 スケーリングが重要な機械学習のモデル. ニューラルネットワークや、線形回帰や、SVMを使う場合は、スケーリングは大事です。 決定木ベースのモデル(ランダムフォレスト、LightGBM、XGBoostなど)は、スケールの違いによる影響が少ないとされますが、特徴量によっては、スケーリングを行ったほうが良い結果が得られます。 主なスケーリング手法. StandardScaler、MinMaxScaler、RobustScalerがあります。 |wby| vdp| fjm| eat| zwm| pto| rna| its| scj| fam| ykn| ehm| ail| lzu| ngn| xgd| pvn| ldq| sov| rgy| lhu| bwp| nbj| tlo| wew| hca| imh| dxi| yzv| zcb| yaw| kjw| frn| bkc| unq| gth| jdn| eqm| sic| plj| sbo| nzc| sxd| grx| ihu| dwf| lrt| fun| ksj| usu|