#拡散希望>>>>
もうでかいVRAMに高い金を払う必要は無くなるかもしれないのか?超分散LLM推論環境が爆誕 |shi3z

世は大容量GPU時代。 吾輩も、秋葉原で大容量VRAM搭載GPUの中古が出たときけばすぐに飛んでいき買ってくるということを繰り返している。ちなみに最近、秋葉原の大容量中古GPUは飛ぶように売れているので、見つけたら即買いしないとすぐに無くなる。 なぜ大容量GPUが欲しいかと言えば、それがAIの全ての力の源だからである。 しかし、これは我々のようなガチ研究勢の話であって、ビジネスパースン的には「いやあこれからはローカルLLMでセキ

note.com/shi3zblog/n/n2352e01bbd47

コメント一覧
神 陽翔2024-10-05 17:01:15

また一般用のGPUに回らなくなるじゃん…(マイニングのときと一緒)

高畑 結愛2024-10-05 17:04:18

アリエクでマイニングリグ買わないと……。なおゲーミングGPUでマルチGPUは12VHPWRコネクタの数とかPCIeのスロット数とかレーン数とか占有スロット数とかカード長とかいろいろめんどい。楽をしたければNVIDIA RTX。

望月 結菜2024-10-05 17:07:21

安価な物を複数台繋げて高性能化を図る、は電力効率を無視してるからなぁ。その天秤かとは思う。

水落 櫂2024-10-05 17:10:24

さくらインターネットが68億円で800個買うって言ってたね。850万円/個。 https://www.nikkei.com/article/DGXZQOUF304HZ0Q4A930C2000000/

瀬永 あかり2024-10-05 17:13:27

既にPython+rayで並列処理は実現できるのだけど設定とか面倒で手間がかかるのがなあ。結局やめてしまって1PCにGPUx3構成になったわ。フル稼働時は100Vコンセントの限界に近い。

秋庭 詩2024-10-05 17:16:30

.to()がないのはmainブランチでも直ってないな。3GBx8で70Bをフル精度推論できるのは確かにすごい|なんか頓珍漢なコメ多すぎんか

青島 結愛2024-10-05 17:19:33

それでもVRAMを後から簡単に増設できる方がいいよ。そういうのが出てきてほしい。推論じゃなくてトレーニングだよ

瀬永 結菜2024-10-05 17:22:36

"仕方ないので自分で修正することにしたところ、どうにかGPUで動くは動いた"しれっと言ってるけど流石やなぁ。

南部 咲希2024-10-05 17:25:39

暖房がはかどりそう   遊ぶだけなら5万円のGPUでも十分遊べるんだけど、研究するならそら足らんわな

嵯峨 陸斗2024-10-05 17:28:42

SETI@homeみたいなのがそのうち…と思ってたがまた一歩近づいてきてる。実用レベルには遠いかもだが。

明田 律2024-10-05 17:31:45

流石清水さんは最先端の情報捉えてるな。まあ、私は応用する立場だから、清水さんや諸先輩が確立した道を辿ればいいのだけど…

寺嵜 柚希2024-10-05 17:34:48

.to()がないのはmainブランチでも直ってないな。3GBx8で70Bをフル精度推論できるのは確かにすごい|なんか頓珍漢なコメ多すぎんか

引間 詩2024-10-05 17:37:51

さくらインターネットが68億円で800個買うって言ってたね。850万円/個。 https://www.nikkei.com/article/DGXZQOUF304HZ0Q4A930C2000000/

久保山 陸斗2024-10-05 17:40:54

何十台も並列計算させるのは電気代的にナンセンス

嵯峨 陸斗2024-10-05 17:43:57

GPUそのものより、GPU直結メモリがどれくらいデカいか、の方が重要よね そっちどうにかしたいもんだけどなあ

渡慶次 櫂2024-10-05 17:47:00

コンシューマ向けがさらに枯渇しそうなんじゃがこれ

平安 結愛2024-10-05 17:50:03

5070は24GBモデルが出て欲しい。MacのM2 MaxのLPDDR5-8ch(512bit幅)でも400GB/sec、GeForce RTX 4090のGDDR6X-384bit幅なら1000GB/secオーバーで帯域が違いすぎる

瀬永 結菜2024-10-05 17:53:06

“TPI-LLMという。これは、複数のノードに跨って推論を実行できる。3GBのマシンを8台繋げて70Bのフル推論ができるらしい。”

湊 心結2024-10-05 17:56:09

RTX 4060 Ti 16Gを4枚刺ししたGPU BOXとか作ってくれはるかんじ?

因幡 柚希2024-10-05 17:59:12

将来を考えても分散推論は必要不可欠

蛍原 咲希2024-10-05 18:02:15

DRAM並列化でこれ以上は速く出来ない限界が来てそれを打破したのがHBM。遅くても良いなら好きなだけ並列化すれば良いしGPUだって遅くて良いなら高級品じゃないGPUを好きなだけ並列化すれば良い。でもそうじゃないよね?

木津 陸斗2024-10-05 18:05:18

またゲーマー泣かせな技術が……

梶浦 詩2024-10-05 18:08:21

既にPython+rayで並列処理は実現できるのだけど設定とか面倒で手間がかかるのがなあ。結局やめてしまって1PCにGPUx3構成になったわ。フル稼働時は100Vコンセントの限界に近い。

南部 咲希2024-10-05 18:11:24

アリエクでマイニングリグ買わないと……。なおゲーミングGPUでマルチGPUは12VHPWRコネクタの数とかPCIeのスロット数とかレーン数とか占有スロット数とかカード長とかいろいろめんどい。楽をしたければNVIDIA RTX。

深澤 あかり2024-10-05 18:14:27

安価な物を複数台繋げて高性能化を図る、は電力効率を無視してるからなぁ。その天秤かとは思う。

小玉 結2024-10-05 18:17:30

ちゃんとプルリク投げたのかな?

真崎 彩葉2024-10-05 18:20:33

GPU高くなりすぎて新調しにくい……

真崎 彩葉2024-10-05 18:23:36

また一般用のGPUに回らなくなるじゃん…(マイニングのときと一緒)

谷名 結2024-10-05 18:26:39

単一な高性能製品は等比級数的に高価になるので『安価なものを束ねて等差級数的価格で高性能』がギークの夢。HDDはRAIDになり、スパコンはベクトルプロセッサやRISCからXeonなんかに。そしてVRAMは

宮寺 律2024-10-05 18:29:42

 やっぱりケタが違う話になりつつあるな。

赤坂 心結2024-10-05 18:32:45

ラズパイでやるか(笑)