GPU
-
91
ななしのよっしん
2025/02/03(月) 20:51:32 ID: AY6kRvS06Q
-
👍0高評価👎0低評価
-
92
ななしのよっしん
2025/05/06(火) 08:47:03 ID: 3qRNiXsbhq
-
👍0高評価👎0低評価
-
93
ななしのよっしん
2025/05/18(日) 16:32:00 ID: 3qRNiXsbhq
-
👍0高評価👎0低評価
-
94
ななしのよっしん
2025/07/25(金) 03:34:06 ID: NCU/rGR2KE
-
👍1高評価👎0低評価
-
95
ななしのよっしん
2025/11/25(火) 13:05:59 ID: NCU/rGR2KE
-
GeForce RTX 5090より10倍高性能なGPU「Zeus」が登場、VRAMを1カード当たり384GBまで増設可能でパストレーシングやHPCに特化
https://gigazine .net/new s/202503 10-bolt- graphics -zeus-gp u/ 
Googleが次期TPUについて台湾のMediaTekと提携 Broadcomより安価に大量生産
https://gigazine .net/new s/202503 18-googl e-tpu-7t h-mediat ek/ 
NVIDIA株が下落、Metaが自社データセンターにGoogleのTPU採用を検討
https://www.bloo mberg.co .jp/news /article s/2025-1 1-25/T69 EB2KJH6V D00 
Building production AI on Google Cloud TPUs with JAX AI Stack
https://develope rs.googl eblog.co m/buildi ng-produ ction-ai -on-goog le-cloud -tpus-wi th-jax/ 
PyTorch/XLA 2.7 Release Usability, vLLM boosts, JAX bridge, GPU Build
https://pytorch. org/blog /pytorch -xla-2-7 -release -usabili ty-vllm- boosts-j ax-bridg e-gpu-bu ild/ 
Zeus GPUとTPU+JAX AI Stack
(JAX+Flax+Optax+Orbax+XLA+Pathways+Pallas&Tokama+Qwix+Grain+MaxText&MaxDiffusion+Tunix)
+OpenXLA+PyTorch/XLAによってNVIDIA GPU+CUDA一強に風穴を開けられるかな? -
👍0高評価👎0低評価
-
96
ななしのよっしん
2025/11/27(木) 11:52:34 ID: NCU/rGR2KE
-
👍0高評価👎0低評価
-
97
ななしのよっしん
2025/11/30(日) 01:07:22 ID: NCU/rGR2KE
-
TPUv7の物理的外販ディールの話やNVIDIA GPUと比較したハードウェア構成、光インターコネクト、ソフトウェアスタックの分析記事
https://newslett er.semia nalysis. com/p/tp uv7-goog le-takes -a-swing -at-the 
Meta等のPyTorch開発者にとって従来のPyTorch/XLAライブラリを介したTPUサポートはLazy Modeを基本としておりEager Executionが主流のネイティブなCUDAバックエンドやファーストクラスのJAX/XLAと比較して機能やユーザー体験の面でセカンドクラス扱いだと感じていた
それを改善するために2025年10月にXLAを基盤コンパイラとして維持しつつPyTorchの標準APIサーフェスに近づけるネイティブバックエンド統合の技術転換が提案された(PyTorch/XLA RFC #9684)
MetaとGoogleはTorch Dynamo/Inductorコンパイルスタックのコード生成ターゲットとしてTPU用カーネルプログラミング言語Pallasをサポートする作業も開始
具体的には新しいPallasバックエンドを導入し低水準言語のPallasを使用してTPU上でPyTorchコードを実行できるようにし、カスタム演算が必要な場合はPyTorchライクのHelionという高水準言語で書き、それをTPUでネイティブに動くPallasコードに自動変換する仕組み
GoogleはTPUカーネルの一部をオープンソース化しvLLMなどのオープンソース推論フレームワークに統合し始めているもののXLA:TPUコンパイラやランタイム、大規模分散処理のためのMegaScalerコードのオープンソース化やドキュメント整備がCUDAに対抗する点で決定的に不足していると指摘 -
👍0高評価👎0低評価
-
98
ななしのよっしん
2025/12/21(日) 14:14:24 ID: NCU/rGR2KE
-
👍0高評価👎0低評価

