- 1: すらいむ ★ 2025/08/09(土) 21:13:17.09 ID:NiKsZ2Lk
- AIのトレーニングに必要なデータ量を1万分の1に減らす画期的な方法をGoogleが発表
複雑なプロンプト(命令文)を理解して高度な計算や回答をするAIを実現するためには、数百億~数兆パラメータもの膨大なトレーニングデータを必要とします。
基本的にAIが高度になればなるほど多くのトレーニングデータを必要としますが、GoogleはAIモデルの品質を維持したままデータ量を最大1万分の1まで削減できるラーニング手法を発表しました。
Achieving 10,000x training data reduction with high-fidelity labels
https://research.google/blog/achieving-10000x-training-data-reduction-with-high-fidelity-labels/
(以下略、続きはソースでご確認ください)
Gigazine 2025年08月09日 14時00分
https://gigazine.net/news/20250809-training-reduction/
引用元: ・【AI】AIのトレーニングに必要なデータ量を1万分の1に減らす画期的なラーニング手法をGoogleが発表 [すらいむ★]
- 2: 名無しのひみつ 2025/08/09(土) 21:33:54.47 ID:ew4ETCbb
- つまり1万分の1になる手法で今までの量をトレーニングすれば性能が1万倍に
- 5: 名無しのひみつ 2025/08/09(土) 23:23:30.00 ID:X5wASS/5
- >>2
ならんらしい - 3: 名無しのひみつ 2025/08/09(土) 22:30:26.85 ID:03l2KznG
- その結果
私は宇宙の恥だとAIさんが嘆くようになったのかw - 4: 名無しのひみつ 2025/08/09(土) 23:15:17.26 ID:xS8Mzjwh
- もう止まらんぞこの流れは。
- 6: 名無しのひみつ 2025/08/10(日) 00:00:10.61 ID:oOMsPNlq
- 自虐的に育つって、今見たばっかりなんだけどw
- 11: 名無しのひみつ 2025/08/10(日) 21:59:16.40 ID:wxpDd+ee
- 品質を維持したまま?

