(1)学習に必要なデータが指数関数的に増加する

データの次元数が大きくなり過ぎると、そのデータで表現できる組み合わせが飛躍的に多くなってしまい、その結果、手元にある有限なサンプルデータでは十分な学習結果が得られなくなる。
計算コストが莫大となるだけでなく、十分な学習結果が得られず、予測精度が不十分になる。

(2)データ間の距離に差がなくなる

データの次元数が大きくなり過ぎると、ほぼすべてのデータが「表面」に分布し、データ間の距離に差がなくなる。
その結果、分類が難しくなったり、クラスタに分けることが難しくなる。

(3)データ空間に対してデータ数が少ない

データの密度が低くデータ間距離が大きい場合、予測の信頼性が大幅に下がる。