91 ななしのよっしん
2025/02/03(月) 20:51:32 ID: AY6kRvS06Q
RTX5000シリーズ、いくら品薄商法といってもアメリカ全土で3桁しか販売してないのはどうなんよ…
👍
高評価
0
👎
低評価
0
92 ななしのよっしん
2025/05/06(火) 08:47:03 ID: 3qRNiXsbhq
👍
高評価
0
👎
低評価
0
93 ななしのよっしん
2025/05/18(日) 16:32:00 ID: 3qRNiXsbhq
アメリカgpsを取り付ける動きが
👍
高評価
0
👎
低評価
0
94 ななしのよっしん
2025/07/25(金) 03:34:06 ID: NCU/rGR2KE
NVIDIACUDARISC-Vアーキテクチャ対応へ
https://pc.watch.impress.co.jp/docs/news/2032953.htmlexit
強大なCUDAエコシステムの所為でGPUはほぼ1社独占状態に近いが逆にCUDAエコシステムのお陰でCPUの多様性が増すことになろうとはなあ
Armの買収が頓挫したのは結果的に大正解だったな
👍
高評価
1
👎
低評価
0
95 ななしのよっしん
2025/11/25(火) 13:05:59 ID: NCU/rGR2KE
👍
高評価
0
👎
低評価
0
96 ななしのよっしん
2025/11/27(木) 11:52:34 ID: NCU/rGR2KE
👍
高評価
0
👎
低評価
0
97 ななしのよっしん
2025/11/30(日) 01:07:22 ID: NCU/rGR2KE
TPUv7の物理的外販ディールの話やNVIDIA GPU較したハードウェア構成、インターコネクトソフトウェアスタックの分析記事
https://newsletter.semianalysis.com/p/tpuv7-google-takes-a-swing-at-theexit
Meta等のPyTorch開発者にとって従来のPyTorch/XLAライブラリを介したTPUサポートはLazy Modeを基本としておりEager Executionが流のネイティブCUDAバックエンドファーストクラスJAX/XLAと較して機ユーザー体験の面でセカンドクラス扱いだと感じていた
それを改善するために2025年10月にXLAを基盤コンパイラとして維持しつつPyTorchの標準APIサーフェスに近づけるネイティブバックエンド統合の技術転換が提案された(PyTorch/XLA RFC #9684)
MetaGoogleTorch Dynamo/Inductorコンパイルスタックコード生成ターゲットとしてTPUカーネルプログラミング言語Pallasサポートする作業も開始
具体的には新しいPallasバックエンドを導入し低準言語のPallasを使用してTPU上でPyTorchコードを実行できるようにし、カスタム演算が必要な場合はPyTorchライクのHelionという高準言語で書き、それをTPUネイティブに動くPallasコードに自動変換する仕組み
GoogleはTPUカーネルの一部をオープンソース化しvLLMなどのオープンソース推論フレームワークに統合し始めているもののXLA:TPUコンパイラやランタイム、大規模分散処理のためのMegaScalerコードオープンソース化やドキュメント整備がCUDAに対抗する点で決定的に不足していると
👍
高評価
0
👎
低評価
0
98 ななしのよっしん
2025/12/21(日) 14:14:24 ID: NCU/rGR2KE
👍
高評価
0
👎
低評価
0

急上昇ワード改

おすすめトレンド

ニコニコニューストピックス