#拡散希望>>>>
事件はGPUで起きているんじゃない メモリで起きているんだ

「AI処理のボトルネックは演算ではなく、メモリアクセスにある」。そんなタイトルでインテル主催の「Intel Connection 2024」で講演を行なったのは、東京大学 特別教授の黒田忠広氏だ。AIの課題である電力消費とボトルネックを解消すべく、インテルのような北米企業と日本の企業、アカデミアはいま何をすべきか。黒田氏は持論を展開した。 GDP比0.6%の第三期成長期に向かうAI時代の半導体産業 Intel Connection 2024のセッションにおいて、スーパーコ

ascii.jp/elem/000/004/225/4225765/

コメント一覧
奥 岳2024-10-05 16:53:01

GPUには広帯域メモリ(HBM)が必要になり、SKハイニクスとサムスンがシェア争いをしている。少し後ろからマイクロンが追いかけているが、徐々にその差を縮めている。3社がしのぎを削って開発競争している状況が面白い。

嵯峨 陸斗2024-10-05 16:56:04

なんで北米に対してアジアがそんな突出して電力消費多いんや?そもそもアジアで括れるようなもんなんだろうか

加治 詩2024-10-05 16:59:07

“GPUは確かに全体の30%を占めているが、DRAMへのアクセスはそれより大きい48%の電力”

杉井 詩2024-10-05 17:02:10

根本的な解決策としてCompute in memoryの研究も進められてるけど、この記事の実装の方がまだ現実味がある気がする

西内 櫂2024-10-05 17:05:13

「ザ・ゴール」を読んだ人はみんなボトルネックが移動することを知っている。

南部 咲希2024-10-05 17:08:16

と言うか、電力だよね。余った太陽光を使う時が来たな!

北村 あかり2024-10-05 17:11:19

遅くてもいいのでGPUのメモリを128くらいにしてほしい。8や12じゃAIで使うには足りない

北村 あかり2024-10-05 17:14:22

キャッシュや仮想メモリといった物理制約あるから工夫で解決でなく、とにかくバス幅広く高速なメモリで殴るってなってるのは、なんだかなとは思ってる

反田 咲希2024-10-05 17:17:25

「文● 大谷イビサ 編集●ASCII」→ 大谷イビサ - Google 検索 https://www.google.com/search?q=%E5%A4%A7%E8%B0%B7%E3%82%A4%E3%83%93%E3%82%B5 事件は会議室で起きているんじゃない - YouTube https://www.youtube.com/watch?v=qNWqQ3eVyns

宇高 七海2024-10-05 17:20:28

かっこいい

湊 心結2024-10-05 17:23:31

「DRAMの読み書きは10%程度だが、GPUとDRAM間のデータ伝送で19%、DRAM内のデータ移動で19%の電力を消費している。」

柏 光莉2024-10-05 17:26:34

世界人口の6割がアジアに住んでるのだからこのグラフでも少ないわな。その内、データセンターの使う電力は 3%~5%~8%と増える予想。

鷲見 彩葉2024-10-05 17:29:37

土俵でしょう

蛯名 律2024-10-05 17:32:40

内容はほとんど読んでないけどIntelのイベントでAppleのM1を宣伝してきたみたいに聞こえる話

山崖 結2024-10-05 17:35:43

ddr6を封鎖せよ

小西 咲希2024-10-05 17:38:46

少し前にやった仕事で数MB程度のデータのレイアウト変換処理を「データ読み取り位置を変えるラッパー」を噛ます事で中間バッファ不要に改造したら爆速になった思い出。

真崎 彩葉2024-10-05 17:41:49

“NVIDIAのH200とH100を比べると、GPUは同じだが、メモリの帯域幅を1.7倍に拡張した結果、推論性能は1.6倍も改善” Apple Silicon が速いのもこれなんだろうなあ。RAM交換できなくなるのは嫌だけど速度を稼ぐには必要か……

久保山 陸斗2024-10-05 17:44:52

でも、GPUの中にあるVRAMかなとも…

瀬永 あかり2024-10-05 17:47:55

人類は常にI/Oと戦っているんだなあ

水戸 光莉2024-10-05 17:50:58

立体シリコンが進化してゆく…

谷名 結2024-10-05 17:54:01

いいえ電源でした

城戸 碧斗2024-10-05 17:57:04

富岳もCPUダイ直結のHBMで2.5Dパッケージだけど、当時でも1コアあたりのメモリ容量が小さくてネックになりそうだったからね。HBMは配線数で帯域をカバーしてるけど積み上げられる量には限界がある

赤坂 心結2024-10-05 18:00:07

“GPUは確かに全体の30%を占めているが、DRAMへのアクセスはそれより大きい48%の電力”

南部 咲希2024-10-05 18:03:10

“GPUサーバーの電力の内訳を見ると、GPUは確かに全体の30%を占めているが、DRAMへのアクセスはそれより大きい48%の電力を消費している。”

肥田 櫂2024-10-05 18:06:13

異なるモジュール間VIAとそもそもメモリ層のボンディングどうすんの感はあるけど3Dの先が見えてないのは事実なので(ULVしか使われそうにない)天才達に頑張ってもらいたく。

丸井 詩2024-10-05 18:09:16

“(メモリ)チップを立てたらいいのでは” コロンブスの卵的な

梅沢 瑛太2024-10-05 18:12:19

マイクロンの株買うか〜

浦野 瑛太2024-10-05 18:15:22

半導体にメモリは必須だからな

小崎 瑛斗2024-10-05 18:18:25

今の人たちこのネタ(タイトル)わかるんかな笑

増子 瑛斗2024-10-05 18:21:28

根本的な解決策としてCompute in memoryの研究も進められてるけど、この記事の実装の方がまだ現実味がある気がする

桐生 心結2024-10-05 18:24:31

なんで北米に対してアジアがそんな突出して電力消費多いんや?そもそもアジアで括れるようなもんなんだろうか

反田 咲希2024-10-05 18:27:34

GoogleのColab使っててもハイスペックなGPU取れなくて代わりにハイメモリ(※VRAMではない)設定にしていたらそっちのほうがむしろ安定するってことあるな

泉 あかり2024-10-05 18:30:37

タイトルいいかんじ

三重野 蒼人2024-10-05 18:33:40

GPUには広帯域メモリ(HBM)が必要になり、SKハイニクスとサムスンがシェア争いをしている。少し後ろからマイクロンが追いかけているが、徐々にその差を縮めている。3社がしのぎを削って開発競争している状況が面白い。