考えてたアルゴリズム。
素直に実装すると、メモリの量がとんでもないことになる。
ディスクにスワップされたらいつ終わるかわかんないと思うので、
配列で確保したいメモリ量がフルスペックでテラ単位に。
畳み込んでもギガ。
こりゃ根本的に現実的な解決策を・・・と思うんだけど、
普通のシステムになってしまう。
減らす方法がないでもない。
が、どう減らすかをアルゴリズム組んで自動化しないといかん。
というわけで考えるのでありました。
どんなんにするのが「面白いのか」という感じで考えてるのでいかんね。
今のSSDでも遅いん?
オンメモリに行列展開して計算しまくるので、遅いと思われ。
https://cloud.watch.impress.co.jp/docs/news/1101779.html
現実として手が出せるのはコレかな。
VM用途だから、インターフェイス兼表面演算に安いブレードも一台。
電源とラック諸々で200万くらいかな?
CPUのEPYCは現状では万能で最良の部類だけど、
あさんの用途推測するにRadeon Instinctって
ディープラーニング演算に向いたヤツを待ちたいところだね。
https://cloud.watch.impress.co.jp/docs/special/1133756.html
とりあえず100万くらい出資すればいい?
で、現実的な話しとしてさ
https://h50146.www5.hpe.com/directplus_ent/server/ml350gen10/
ジオンで我慢して、24スロ×32Gの768Gメモリ(1CPUに384Gだと思う)
なら自宅運用できると思うのよ。
値段はいっしょやけど・・・
マツへ
SSD最高速(WD Black NVMe)でシーケンシャル3.4GB/秒
上記のサーバなどの安全なDDR4/2666でランダム21.3GB/秒
実行的にはSSDはCPUの演算に使うとなると、
NVMe経由としてもランダムの実行は1GB/秒出れば凄い早い
ランダム1GB/秒以下となるとDDRイチの200より下、
ペンⅡ時代のSDRAM程度。
なおかつレイテンシは二桁違っちゃう。
演算に利用する場合は
おおよそDDR4メモリで一般的SSDの数百倍、
最高速SSDとNVMeで30〜100倍程度違うと思っていい。
レイテンシを考えると、
今のCPUだとデータ来なくて待ちぼうけしてる
アイドルタイムのが長くなる。
さくらの高火力を借りるのが早いかなと、思ったり。
でも、カネがかかるんだなぁ。
賢いプログラム考えなきゃ。
https://www.j-focus.or.jp/focus/fee.html
Enjoy!
スパムと、なんら違わんなぁ
スタート時は密な行列が、刈り込まれていくのを考えるんだけど、
どういう方法とるかで、さらにメモリ食いのCPU回さないといけないという悪循環に。
で、メモリのボトルネック超えられれば、ラズパイのクラスタで・・・。
とも思ったんだけど、甘くないんだな。全く。
ラズパイに・・・うーむ
プチ・アップルパイで連載してた
メルヘンメーカーの作品が読みたい。
http://www.wondergarden.jp/mar/
らすとあっぷでーと・・・
手直ししてやりたいと思うが、あれはあれでいいか。
なにわあい氏のとこのなつかし感じが好き
http://www2.tbb.t-com.ne.jp/arakawa_m/
みず谷なおき・かがみあきら氏の漫画を
もっと読みたかったなと夕暮れに思う
詮無いなぁ