98
91 ななしのよっしん
2025/02/03(月) 20:51:32 ID: AY6kRvS06Q
RTX5000シリーズ、いくら品薄商法といってもアメリカ全土で3桁しか販売してないのはどうなんよ…
92 ななしのよっしん
2025/05/06(火) 08:47:03 ID: 3qRNiXsbhq
光演算のGPU
https://
93 ななしのよっしん
2025/05/18(日) 16:32:00 ID: 3qRNiXsbhq
94 ななしのよっしん
2025/07/25(金) 03:34:06 ID: NCU/rGR2KE
NVIDIAのCUDAがRISC-Vアーキテクチャ対応へ
https://
強大なCUDAエコシステムの所為でGPUはほぼ1社独占状態に近いが逆にCUDAエコシステムのお陰でCPUの多様性が増すことになろうとはなあ
Armの買収が頓挫したのは結果的に大正解だったな
95 ななしのよっしん
2025/11/25(火) 13:05:59 ID: NCU/rGR2KE
GeForce RTX 5090より10倍高性能なGPU「Zeus」が登場、VRAMを1カード当たり384GBまで増設可能でパストレーシングやHPCに特化
https://
Googleが次期TPUについて台湾のMediaTekと提携 Broadcomより安価に大量生産
https://
NVIDIA株が下落、Metaが自社データセンターにGoogleのTPU採用を検討
https://
Building production AI on Google Cloud TPUs with JAX AI Stack
https://
PyTorch/XLA 2.7 Release Usability, vLLM boosts, JAX bridge, GPU Build
https://
Zeus GPUとTPU+JAX AI Stack
(JAX+Flax+Optax+Orbax+XLA+Pathways+Pallas&Tokama+Qwix+Grain+MaxText&MaxDiffusion+Tunix)
+OpenXLA+PyTorch/XLAによってNVIDIA GPU+CUDA一強に風穴を開けられるかな?
96 ななしのよっしん
2025/11/27(木) 11:52:34 ID: NCU/rGR2KE
vLLM TPU: A New Unified Backend Supporting PyTorch and JAX on TPU
https://
97 ななしのよっしん
2025/11/30(日) 01:07:22 ID: NCU/rGR2KE
TPUv7の物理的外販ディールの話やNVIDIA GPUと比較したハードウェア構成、光インターコネクト、ソフトウェアスタックの分析記事
https://
Meta等のPyTorch開発者にとって従来のPyTorch/XLAライブラリを介したTPUサポートはLazy Modeを基本としておりEager Executionが主流のネイティブなCUDAバックエンドやファーストクラスのJAX/XLAと比較して機能やユーザー体験の面でセカンドクラス扱いだと感じていた
それを改善するために2025年10月にXLAを基盤コンパイラとして維持しつつPyTorchの標準APIサーフェスに近づけるネイティブバックエンド統合の技術転換が提案された(PyTorch/XLA RFC #9684)
MetaとGoogleはTorch Dynamo/Inductorコンパイルスタックのコード生成ターゲットとしてTPU用カーネルプログラミング言語Pallasをサポートする作業も開始
具体的には新しいPallasバックエンドを導入し低水準言語のPallasを使用してTPU上でPyTorchコードを実行できるようにし、カスタム演算が必要な場合はPyTorchライクのHelionという高水準言語で書き、それをTPUでネイティブに動くPallasコードに自動変換する仕組み
GoogleはTPUカーネルの一部をオープンソース化しvLLMなどのオープンソース推論フレームワークに統合し始めているもののXLA:TPUコンパイラやランタイム、大規模分散処理のためのMegaScalerコードのオープンソース化やドキュメント整備がCUDAに対抗する点で決定的に不足していると指摘
98 ななしのよっしん
2025/12/21(日) 14:14:24 ID: NCU/rGR2KE
https://
Jim Keller率いるTenstorrentのPJRT(Portable JAX Runtime)インターフェースを活用したマルチデバイス対応OpenXLAエコシステムのバックエンド実装
ほめた!
ほめるを取消しました。
ほめるに失敗しました。
ほめるの取消しに失敗しました。