<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>mbp &#8211; 3C 達人廖阿輝</title>
	<atom:link href="https://ahui3c.com/tag/mbp/feed" rel="self" type="application/rss+xml" />
	<link>https://ahui3c.com</link>
	<description>Liao A-hui&#039;s 3C &#38; Geek news</description>
	<lastBuildDate>Sun, 26 Apr 2026 14:02:22 +0000</lastBuildDate>
	<language>zh-TW</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<atom:link rel='hub' href='https://ahui3c.com/?pushpress=hub'/>
<site xmlns="com-wordpress:feed-additions:1">126135271</site><ins class="adsbygoogle"
     style="display:block"
     data-ad-format="fluid"
     data-ad-layout-key="-f9+4w+7x-eg+3a"
     data-ad-client="ca-pub-0181345587710654"
     data-ad-slot="8394749592"></ins>
<script>
     (adsbygoogle = window.adsbygoogle || []).push({});
</script>	<item>
		<title>Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速</title>
		<link>https://ahui3c.com/144937/m5-max-128gb</link>
					<comments>https://ahui3c.com/144937/m5-max-128gb#respond</comments>
		
		<dc:creator><![CDATA[廖阿輝]]></dc:creator>
		<pubDate>Fri, 17 Apr 2026 18:25:31 +0000</pubDate>
				<category><![CDATA[Apple 愛蘋果]]></category>
		<category><![CDATA[智慧手機開箱評測]]></category>
		<category><![CDATA[apple]]></category>
		<category><![CDATA[m5 max]]></category>
		<category><![CDATA[macbook]]></category>
		<category><![CDATA[mbp]]></category>
		<guid isPermaLink="false">https://ahui3c.com/?p=144937</guid>

					<description><![CDATA[ok 最近有在追蹤我的朋友應該知道我忍不住敗了筆大條的，是的我入手了 2026 年最新款 Macbook Pro 16 吋，還是直接攻頂頂規 M5 Max 晶片 + 128GB 版本，甚至只能說可惜筆電最高也只給到這個規格，不然真的出個 M5 Ultra 256GB 我搞不好還是會直接衝到底&#8230;. 完整的實測影片剛拍完還在剪輯，今天就先和大家分享一下這台 M5 Max + 128GB 版&#46;&#46;&#46;]]></description>
										<content:encoded><![CDATA[<p>ok 最近有在追蹤我的朋友應該知道我忍不住敗了筆大條的，是的我入手了 2026 年最新款 Macbook Pro 16 吋，還是直接攻頂頂規 M5 Max 晶片 + 128GB 版本，甚至只能說可惜筆電最高也只給到這個規格，不然真的出個 M5 Ultra 256GB 我搞不好還是會直接衝到底&#8230;.</p>
<p><img fetchpriority="high" decoding="async" class="alignnone size-full wp-image-145005 aligncenter" src="https://www.ahui3c.com/wp-content/uploads/2026/04/d36a98af-f780-4700-b1db-e8b87aca0073.jpg" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="500" height="500" /></p>
<p>完整的實測影片剛拍完還在剪輯，今天就先和大家分享一下這台 M5 Max + 128GB 版本的最新 Macbook Pro 性能大約到哪裡？還有就是我最主要入手的原因 &#8211;&gt; 他可以跑多大的 LLM 本地大模型？跑得如何？</p>
<p>這篇文章會分成兩個重點。第一部分，我會先用實測這台電腦的 Geekbench 6 成績，來看看這台 M5 Max 128GB 在當前市場中，CPU 與 GPU 大概落在哪個等級。第二部分，則會進入我真正最在意的主題：以最常見的 LM Studio + 幾個常見的本地大模型實測。這部分不只是回答「能不能跑」，而是要回答更關鍵的問題：跑到什麼程度才算真的有價值。</p>
<p><img decoding="async" class="alignnone  wp-image-145000 aligncenter" src="https://www.ahui3c.com/wp-content/uploads/2026/04/PixPin_2026-04-21_13-38-08.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="485" height="227" /></p>
<p>當然這台電腦我也會拿來打遊戲啦～ 不過那等我的影片篇再來和大家聊吧！</p>
<h2>測試電腦規格與軟體</h2>
<p>我的測試平台是 MacBook Pro 16，Apple M5 Max，128GB 統一記憶體，SSD 只有選最基本的 2TB 再額外利用 TB5 外接擴充高速 SSD，測試系統版本當下最新的 macOS 26.4.1 。 Geekbench 6 使用的是 6.7.0 Pro；LM Studio 部分則以我日常實際使用的幾個模型做觀察，包含 GPT-OSS 120B 、 Llama 3.3 70B 、 Hermes 4 70B 、 Qwen 2.5 72B Instruct 、 Gemma 4 31B 與 Gemma 4 e4b 等。</p>
<p>本文有一個非常重要的前提必須先講清楚：跨平台 LLM 比較本來就很難做到完全等條件。不同平台會受量化格式、上下文長度、推理 effort 、記憶體配置與 offload 策略影響。因此，文中的比較應解讀為同級距、同模型或近同模型下的實測對照。</p>
<p><img decoding="async" class="alignnone size-full wp-image-144958" src="https://www.ahui3c.com/wp-content/uploads/2026/04/f2dbbc7b7630116cf6bdf57f01c92766.jpg" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="1960" height="1274" /></p>
<h2>Geekbench 6 實測結果</h2>
<p>實測 Geekbench 6 測試結果如上表，在 Geekbench 6 多核心部分如果對比筆電處理器，大約領先 Intel Core Ultra 9 275HX 約 34%，也領先 AMD Ryzen AI Max+ 395 約 25%，甚至對比部分桌上型旗艦處理器都可以相提並論甚至更高，包含 Core Ultra 9 285K 與 Ryzen 9 9950X3D 。</p>
<p><img loading="lazy" decoding="async" class="wp-image-144941 aligncenter" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-18-上午12.36.54.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="577" height="522" /></p>
<p>不過，這裡還是要說單純看 Geekbench 跑分比較適合是看架構效率與「大約級距」，不能直接代表所有真實工作負載。如果你的工作是大量 3D 渲染、長時間編譯、特定 AVX 工作負載，或依賴 CUDA 的 GPU pipeline，那麼單看 Geekbench 得到的結論一定會過度樂觀。單純這裡看 Geekbench 6 來評估的話大致上可以給的結論是 M5 Max 的 CPU 已經站上當前行動平台的最頂級區間，單核體感尤其強，多核也足以和高階桌機級 CPU 在正面競爭。</p>
<p><img loading="lazy" decoding="async" class="wp-image-144943 aligncenter" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-18-上午12.30.15.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="620" height="502" /></p>
<p>如果改看 GPU 的部分，以這台頂規的 M5 Max（40-core GPU 版本），性能定位大致比較接近的應該是 GeForce RTX 5070 筆電版本，或是桌機版的 4070，略快於 Strix Halo 的 Radeon 8060S；如果自家前輩相比 M5 這一代升級可以說是蠻大的，對比前代 M4 Max 有 20% 至 26% 左右的提升，不過真要說 GPU 性能其實更重要的應該還是功耗、噪音、可攜性與最重要的統一記憶體整合能力。</p>
<table class="aligncenter" style="height: 303px; width: 59.8842%;" border="1" width="59.8842%" cellspacing="0" cellpadding="3">
<thead>
<tr style="height: 56px;">
<td style="height: 56px;">
項目
</td>
<td style="height: 56px;">
分數
</td>
<td style="height: 56px;">
備註
</td>
</tr>
</thead>
<tbody>
<tr style="height: 56px;">
<td style="height: 56px;">
CPU Single-Core
</td>
<td style="height: 56px;">
<strong>4286</strong>
</td>
<td style="height: 56px;">
使用者實測
</td>
</tr>
<tr style="height: 56px;">
<td style="height: 56px;">
CPU Multi-Core
</td>
<td style="height: 56px;">
<strong>29703</strong>
</td>
<td style="height: 56px;">
使用者實測
</td>
</tr>
<tr style="height: 56px;">
<td style="height: 56px;">
GPU Metal
</td>
<td style="height: 56px;">
<strong>195849</strong>
</td>
<td style="height: 56px;">
使用者實測
</td>
</tr>
</tbody>
</table>
<p>與其他處理器測試數據彙整提供參考</p>
<p>&nbsp;</p>
<p><img loading="lazy" decoding="async" class="wp-image-145065 aligncenter" src="https://www.ahui3c.com/wp-content/uploads/2026/04/性能彙整-scaled.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="886" height="499" /></p>
<h2>SSD 固態硬碟速度實測</h2>
<div class="x14z9mp xat24cr x1lziwak x1vvkbs xtlvy1s x126k92a">
<div dir="auto">內建 SSD 與 TB5 OWC 外接盒速度實測</div>
</div>
<div class="x14z9mp xat24cr x1lziwak x1vvkbs xtlvy1s x126k92a">
<ul>
<li dir="auto">內建 SSD 2TB：約 10316 MB/sec 讀取 | 12019 MB/sec 寫入</li>
</ul>
</div>
<p><img loading="lazy" decoding="async" class="alignnone  wp-image-144994 aligncenter" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-19-下午3.50.47.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="584" height="602" /></p>
<p>&nbsp;</p>
<div class="x14z9mp xat24cr x1lziwak x1vvkbs xtlvy1s x126k92a">
<ul>
<li dir="auto">TB5 + OWC 外接盒 4TB：約 5974 MB/sec 讀取 | 3044 MB/sec 寫入</li>
</ul>
<p><img loading="lazy" decoding="async" class="wp-image-144995 aligncenter" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-19-下午3.52.36.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="634" height="653" /></p>
<div dir="auto"> </div>
</div>
<h2>讓我買單的重點：128GB 統一記憶體</h2>
<p>如果你的工作重心是一般剪輯、修圖、開發或日常辦公，那麼 M5 Pro 甚至較低配版本，可能都已經夠好。但如果你的目標是在本地直接跑 70B 、 72B 、 120B 這類大型模型，情況就完全不同了。</p>
<p>現在多數高效能筆電或桌機顯卡的瓶頸，其實不僅僅是算力本身，而是模型能不能完整留在高速記憶體裡。只要模型開始跨到系統 RAM，速度就會掉得非常明顯，延遲也會變得很難受。這正是 Apple 高容量統一記憶體最迷人的地方：它不見得永遠是純 decode 最快的平台，但它常常是「能把模型整個放進去，而且還跑得動」的平台，這點在 x86 平台上 AMD AI MAX 處理器其實也有類似的特點（M5 Max 性能更高）</p>
<p><img loading="lazy" decoding="async" class="alignnone  wp-image-144942 aligncenter" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-17-下午10.25.48.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="573" height="758" /></p>
<p>而這一點，正好就是我選擇 128GB 版本的核心理由。對我來說，這台電腦最吸引人的地方不是「把 7B 跑到飛快」，而是把 70B 以上的大模型跑到可用，甚至把 120B 級模型拉進本地工作流。這件事在行動裝置上，意義遠比多幾萬分 Metal 跑分更大，舉例一下如果真的要說絕對的運算能力，那 5090 性能絕對更強（七萬，前提也是原價要買得到&#8230;）。但是抱歉顯示卡記憶體就是只有 32GB，要更大的模型？抱歉請買價格數倍的 6000 ADA（三十萬），這樣一講，是不是這台 128GB 的 Macbook Pro 突然性價比就高了起來？（笑）</p>
<p><img loading="lazy" decoding="async" class="alignnone size-full wp-image-145002" src="https://www.ahui3c.com/wp-content/uploads/2026/04/12a1a8d0-ea3b-4ee2-a1f5-27c1fbbd600f.jpg" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="1440" height="814" /></p>
<p>&nbsp;</p>
<h2>LM Studio 本地大模型實測：這台機器到底能跑到哪裡？</h2>
<p>接下來進入這篇文章最重要的部分。以下是我從實測截圖整理出的主要數據。為了方便閱讀，我把同類型模型集中在一起。</p>
<table class="aligncenter" style="width: 80%; height: 616px;" border="1" width="80%" cellspacing="0" cellpadding="3">
<thead>
<tr style="height: 56px;">
<td style="width: 39.0399%; height: 56px;">
模型
</td>
<td style="width: 16.9384%; height: 56px;">
類型
</td>
<td style="width: 16.2138%; height: 56px;">
M5 Max 128GB 
</td>
<td style="width: 27.6268%; height: 56px;">
補充
</td>
</tr>
</thead>
<tbody>
<tr style="height: 56px;">
<td style="width: 39.0399%; height: 56px;">
<span style="color: #993366;"><strong>GPT-OSS 120B（Low）</strong></span>
</td>
<td style="width: 16.9384%; height: 56px;">
推理模型
</td>
<td style="width: 16.2138%; height: 56px;">
<strong>70.59</strong> tok/s
</td>
<td style="width: 27.6268%; height: 56px;">
1500 tokens，5.81s
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 39.0399%; height: 56px;">
<span style="color: #993366;"><strong>GPT-OSS 120B（Low）</strong></span>
</td>
<td style="width: 16.9384%; height: 56px;">
推理模型
</td>
<td style="width: 16.2138%; height: 56px;">
<strong>94.75</strong> tok/s
</td>
<td style="width: 27.6268%; height: 56px;">
720 tokens，3.04s
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 39.0399%; height: 56px;">
<span style="color: #993366;"><strong>GPT-OSS 120B（Medium）</strong></span>
</td>
<td style="width: 16.9384%; height: 56px;">
推理模型
</td>
<td style="width: 16.2138%; height: 56px;">
<strong>80.59</strong> tok/s
</td>
<td style="width: 27.6268%; height: 56px;">
1418 tokens，3.81s
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 39.0399%; height: 56px;">
<span style="color: #993366;"><strong>GPT-OSS 120B（High）</strong></span>
</td>
<td style="width: 16.9384%; height: 56px;">
推理模型
</td>
<td style="width: 16.2138%; height: 56px;">
<strong>93.84</strong> tok/s
</td>
<td style="width: 27.6268%; height: 56px;">
1526 tokens，3.02s
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 39.0399%; height: 56px;">
<span style="color: #666699;"><strong>Llama 3.3 70B</strong></span>
</td>
<td style="width: 16.9384%; height: 56px;">
Dense 70B
</td>
<td style="width: 16.2138%; height: 56px;">
<strong>11.32</strong> tok/s
</td>
<td style="width: 27.6268%; height: 56px;">
560 tokens
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 39.0399%; height: 56px;">
<span style="color: #666699;"><strong>Hermes 4 70B</strong></span>
</td>
<td style="width: 16.9384%; height: 56px;">
Dense 70B
</td>
<td style="width: 16.2138%; height: 56px;">
<strong>12.06</strong> tok/s
</td>
<td style="width: 27.6268%; height: 56px;">
533 tokens
</td>
</tr>
<tr>
<td style="width: 39.0399%;">
<span style="color: #ff0000;"><strong>qwen3.6 27b</strong></span>
</td>
<td style="width: 16.9384%;">
Dense 27B
</td>
<td style="width: 16.2138%;">
<strong>26.27 </strong>tok/s
</td>
<td style="width: 27.6268%;">
1647 tokens，Think + Vision
</td>
</tr>
<tr>
<td style="width: 39.0399%;">
<span style="color: #ff0000;"><strong>qwen3.6 35b a3b</strong></span>
</td>
<td style="width: 16.9384%;">
qwen3.6-35b-a3b
</td>
<td style="width: 16.2138%;">
<strong>104.17</strong> tok/s
</td>
<td style="width: 27.6268%;">
1879 tokens，Think + Vision
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 39.0399%; height: 56px;">
<span style="color: #ff0000;"><strong>Qwen 2.5 72B Instruct</strong></span>
</td>
<td style="width: 16.9384%; height: 56px;">
Dense 72B
</td>
<td style="width: 16.2138%; height: 56px;">
<strong>10.50</strong> tok/s
</td>
<td style="width: 27.6268%; height: 56px;">
639 tokens
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 39.0399%; height: 56px;">
<strong><span style="color: #0000ff;">Gemma 4 31B</span></strong>
</td>
<td style="width: 16.9384%; height: 56px;">
31B 多模態
</td>
<td style="width: 16.2138%; height: 56px;">
<strong>22.99</strong> tok/s
</td>
<td style="width: 27.6268%; height: 56px;">
751 tokens
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 39.0399%; height: 56px;">
<strong><span style="color: #0000ff;">Gemma 4 26B (a</span><span style="color: #0000ff;">4b-it-uncensored-heretic)</span></strong>
</td>
<td style="width: 16.9384%; height: 56px;">
26B 去限制版本
</td>
<td style="width: 16.2138%; height: 56px;">
<strong>103.47 tok/s</strong>
</td>
<td style="width: 27.6268%; height: 56px;">
895 tokens
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 39.0399%; height: 56px;">
<strong><span style="color: #0000ff;">Gemma 4 e4b</span></strong>
</td>
<td style="width: 16.9384%; height: 56px;">
輕量模型
</td>
<td style="width: 16.2138%; height: 56px;">
<strong>94.49 tok/s</strong>
</td>
<td style="width: 27.6268%; height: 56px;">
725 tokens
</td>
</tr>
<tr>
<td style="width: 39.0399%;">
<span style="color: #339966;"><strong>NVIDIA Nemotron Super</strong></span>
</td>
<td style="width: 16.9384%;">
120B
</td>
<td style="width: 16.2138%;">
<strong>36.94 tok/s</strong>
</td>
<td style="width: 27.6268%;">
3094 tokens，Think
</td>
</tr>
<tr>
<td style="width: 39.0399%;">
<span style="color: #339966;"><strong>NVIDIA Nemotron Nano</strong></span>
</td>
<td style="width: 16.9384%;">
30B
</td>
<td style="width: 16.2138%;">
<strong>110.71 tok/s</strong>
</td>
<td style="width: 27.6268%;">
1520 tokens，Think
</td>
</tr>
<tr>
<td style="width: 39.0399%;">
<span style="color: #339966;"><strong>NVIDIA Nemotron 4B</strong></span>
</td>
<td style="width: 16.9384%;">
4B
</td>
<td style="width: 16.2138%;">
<strong>151.00 tok/s</strong>
</td>
<td style="width: 27.6268%;">
2555 tokens，Think
</td>
</tr>
</tbody>
</table>
<p>&nbsp;</p>
<p>如果先把焦點放在 <em>GPT-OSS 120B</em>，這台 M5 Max 128GB 最令人意外、也最有說服力的地方，就已經很清楚了。在我這邊的幾組截圖中，<strong>GPT-OSS 120B</strong> 的輸出速度大致落在 70.59 至 94.75 tok/s 。這個區間的波動很合理，因為不同的 reasoning effort 、輸出長度與提示結構，本來就會造成吞吐差異；但即使如此，它的平均仍約有 84.94 tok/s，這已經不是「能跑」而已，而是相當從容地跑。</p>
<p>如果看 70B 至 72B 級 dense 模型，像是 <strong>Llama 3.3 70B 、 Hermes 4 70B 、 Qwen 2.5 72B Instruct</strong>，這台機器大致落在 10.50 至 12.06 tok/s，平均約 11.46 tok/s 。這個數字在紙面上也許不像 <strong>GPT-OSS 120B</strong> 那樣驚人，但從本地使用角度來說，11 tok/s 左右其實已經進入實用區。如果你的工作是長文問答、程式協作、文件整理、翻譯或研究輔助，這個速度已經足以讓互動保持連續，不會有太重的「等機器」感。</p>
<p>更值得注意的是 Gemma 4 系列 的表現。原先我手上的 Gemma 4 31B 約為 22.99 tok/s，Gemma 4 e4b 約為 94.49 tok/s；Gemma 4 26B 無限制版北則更進一步跑到 103.47 tok/s 。就速度來看明 M5 Max 128GB 不只是在超大模型上有容量優勢，在部分 20B～30B 級、偏高效率的混合架構模型上，也能提供非常接近即時互動的輸出體驗。這意味著 M5 Max 128GB 其實能形成一個很完整的本地模型梯度：你可以用 e4b 或 20B～30B 級模型處理快速互動，再在需要更高品質推理或更高知識密度時，直接切到 70B 、 72B 甚至 120B 級模型，而不必換機器。</p>
<p>如果把 Gemma 4 單獨拉出來看，Akehir 在 Ryzen AI Max+ 395 平台上測得 Gemma 4 31B 約 3.46 tok/s（BF16）、 6.20 tok/s（Q8），Gemma 4 26B 約 20 tok/s 以下（BF16）到 44 tok/s（Q8），Gemma 4 E4B 約 19 tok/s 。換句話說若把 M5 Max 128GB 實測放進同一個大致級距裡看，Gemma 4 31B 約 22.99 tok/s 、 Gemma 4 26B 約 103.47 tok/s 、 Gemma 4 e4b 約 94.49 tok/s，其實都顯著高於目前我查到的 AMD AI Max+ 395 公開個人實測值。</p>
<p>若把對手換成 NVIDIA 陣營，差異就要分模型類型看。單張 RTX Pro 6000 Blackwell 跑 Gemma 4 31B 的公開基準，單請求 1K context 約為 40.7 tok/s，峰值系統吞吐可到 126 tok/s 。單張 RTX 5090 跑 Gemma 4 31B，在 TurboQuant KV cache 與 256K context 的特殊配置下，公開實測約為 61.51 tok/s；若是 Gemma 4 26B，另一則 RTX 5090 使用者實測則回報 約 150 tok/s，留言中甚至有人以 llama.cpp Q6 跑到 約 190 tok/s 。</p>
<p>相較之下 DGX Spark 在 Gemma 4 31B dense 上的單流 decode 約 6.8～6.9 tok/s，但在 Gemma 4 26B-A4B MoE 經 NVFP4 量化後則可達 45～60 tok/s，而且 256K context 可完整容納。這代表 DGX Spark 的核心優勢仍然偏向統一記憶體容量與模型容納能力；若只比單流 decode，它並不會自然壓過高階桌機卡。</p>
<p>為了讓這個差距更直觀，我把目前能找到與實測最接近的 Gemma 4 公開資料整理成下面這張表。不過要注意這裡整理的資料可以說是同系列模型、但不一定完全同量化與同 runtime 的公開對照，因此適合拿來判斷級距，不適合被解讀為絕對實驗室排名。</p>
<p><img loading="lazy" decoding="async" class="alignnone size-full wp-image-145104" src="https://www.ahui3c.com/wp-content/uploads/2026/04/PixPin_2026-04-24_15-18-49-scaled.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="2560" height="1376" /></p>
<h3>Gemma 4 模型近似參考</h3>
<table class="aligncenter" style="height: 896px; width: 90%;" border="1" width="90%" cellspacing="0" cellpadding="3">
<thead>
<tr style="height: 56px;">
<td style="width: 199.766px; height: 56px; text-align: center;">
&nbsp;
</td>
<td style="width: 182.859px; height: 56px; text-align: center;">
Gemma 4 模型
</td>
<td style="width: 272.641px; height: 56px; text-align: center;">
公開／實測速度
</td>
<td style="width: 379.734px; height: 56px; text-align: center;">
條件與解讀
</td>
</tr>
</thead>
<tbody>
<tr style="height: 80px;">
<td style="width: 199.766px; height: 80px; text-align: center;">
<span style="background-color: #ffff99;">M5 Max 128GB </span>
</td>
<td style="width: 182.859px; height: 80px; text-align: center;">
<span style="background-color: #ffff99;">Gemma 4 31B</span>
</td>
<td style="width: 272.641px; height: 80px; text-align: center;">
<span style="background-color: #ffff99;"><strong>22.99</strong> tok/s</span>
</td>
<td style="width: 379.734px; height: 80px; text-align: center;">
&nbsp;
</td>
</tr>
<tr style="height: 80px;">
<td style="width: 199.766px; height: 80px; text-align: center;">
<span style="background-color: #ffff99;">M5 Max 128GB </span>
</td>
<td style="width: 182.859px; height: 80px; text-align: center;">
<span style="background-color: #ffff99;">Gemma 4 26B (a4b-it-uncensored-heretic)</span>
</td>
<td style="width: 272.641px; height: 80px; text-align: center;">
<span style="background-color: #ffff99;"><strong>103.47</strong> tok/s</span>
</td>
<td style="width: 379.734px; height: 80px; text-align: center;">
&nbsp;
</td>
</tr>
<tr style="height: 80px;">
<td style="width: 199.766px; height: 80px; text-align: center;">
<span style="background-color: #ffff99;">M5 Max 128GB </span>
</td>
<td style="width: 182.859px; height: 80px; text-align: center;">
<span style="background-color: #ffff99;">Gemma 4 e4b</span>
</td>
<td style="width: 272.641px; height: 80px; text-align: center;">
<span style="background-color: #ffff99;"><strong>94.49</strong> tok/s</span>
</td>
<td style="width: 379.734px; height: 80px; text-align: center;">
&nbsp;
</td>
</tr>
<tr style="height: 80px;">
<td style="width: 199.766px; height: 80px; text-align: center;">
AMD AI Max+ 395 128GB
</td>
<td style="width: 182.859px; height: 80px; text-align: center;">
Gemma 4 31B
</td>
<td style="width: 272.641px; height: 80px; text-align: center;">
3.46 tok/s（BF16)<br />
6.20 tok/s（Q8）
</td>
<td style="width: 379.734px; height: 80px; text-align: center;">
第三方 Vulkan 實測，非 LM Studio
</td>
</tr>
<tr style="height: 80px;">
<td style="width: 199.766px; height: 80px; text-align: center;">
AMD AI Max+ 395 128GB
</td>
<td style="width: 182.859px; height: 80px; text-align: center;">
Gemma 4 26B
</td>
<td style="width: 272.641px; height: 80px; text-align: center;">
20 tok/s 以下（BF16)<br />
最高 44 tok/s（Q8）
</td>
<td style="width: 379.734px; height: 80px; text-align: center;">
第三方測試
</td>
</tr>
<tr style="height: 80px;">
<td style="width: 199.766px; height: 80px; text-align: center;">
AMD AI Max+ 395 128GB
</td>
<td style="width: 182.859px; height: 80px; text-align: center;">
Gemma 4 E4B
</td>
<td style="width: 272.641px; height: 80px; text-align: center;">
約 19 tok/s
</td>
<td style="width: 379.734px; height: 80px; text-align: center;">
第三方測試
</td>
</tr>
<tr style="height: 80px;">
<td style="width: 199.766px; height: 80px; text-align: center;">
DGX Spark 128GB
</td>
<td style="width: 182.859px; height: 80px; text-align: center;">
Gemma 4 31B dense
</td>
<td style="width: 272.641px; height: 80px; text-align: center;">
6.79～6.91 tok/s
</td>
<td style="width: 379.734px; height: 80px; text-align: center;">
NVIDIA 論壇，runtime FP8，65,536 context，單使用者 tg128
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 199.766px; height: 56px; text-align: center;">
DGX Spark 128GB
</td>
<td style="width: 182.859px; height: 56px; text-align: center;">
Gemma 4 26B-A4B MoE
</td>
<td style="width: 272.641px; height: 56px; text-align: center;">
45～60 tok/s
</td>
<td style="width: 379.734px; height: 56px; text-align: center;">
使用者公開實測，NVFP4，256K context
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 199.766px; height: 56px; text-align: center;">
RTX Pro 6000 Blackwell
</td>
<td style="width: 182.859px; height: 56px; text-align: center;">
Gemma 4 31B
</td>
<td style="width: 272.641px; height: 56px; text-align: center;">
40.7 tok/s
</td>
<td style="width: 379.734px; height: 56px; text-align: center;">
單請求 1K context generation speed
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 199.766px; height: 56px; text-align: center;">
RTX 5090
</td>
<td style="width: 182.859px; height: 56px; text-align: center;">
Gemma 4 31B
</td>
<td style="width: 272.641px; height: 56px; text-align: center;">
61.51 tok/s
</td>
<td style="width: 379.734px; height: 56px; text-align: center;">
TurboQuant KV cache，256K context
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 199.766px; height: 56px; text-align: center;">
RTX 5090
</td>
<td style="width: 182.859px; height: 56px; text-align: center;">
Gemma 4 26B
</td>
<td style="width: 272.641px; height: 56px; text-align: center;">
約 150 tok/s
</td>
<td style="width: 379.734px; height: 56px; text-align: center;">
修改版 vLLM + NVFP4，full context
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 199.766px; height: 56px; text-align: center;">
RTX 5090
</td>
<td style="width: 182.859px; height: 56px; text-align: center;">
Gemma 4 26B
</td>
<td style="width: 272.641px; height: 56px; text-align: center;">
約 190 tok/s
</td>
<td style="width: 379.734px; height: 56px; text-align: center;">
<p style="text-align: center;">使用者留言補充，llama.cpp Q6</p>
</td>
</tr>
</tbody>
</table>
<p>以彙整的資料來看，首先在 Gemma 4 31B 級模型上，M5 Max 128GB 的位置大致介於 AMD AI Max+ 395／DGX Spark 與 RTX Pro 6000 Blackwell／RTX 5090 之間。它不是同級裡最快，但也絕對不是只能靠容量取勝的「慢平台」。然後在 Gemma 4 26B 測試中（修改版的無限制模型），M5 Max 128GB 已經相當接近高互動性工作流所需的速度區間。雖然純吞吐通常仍低於 RTX 5090，但若把噪音、耗電、整機體積、可攜性與 128GB 統一記憶體一起算進來，M5 Max 128GB 的整體吸引力更完整。</p>
<p>&nbsp;</p>
<h2>與市面設備對照差多少？</h2>
<p>談本地大模型，一定不能只看 Apple 自己。真正有意義的問題是：如果我拿這台 M5 Max 128GB 頂規的 Macbook Pro，去跟目前市場上幾種代表性本地 AI 硬體相比，它大概站在哪裡？</p>
<p>先從最接近我實測模型的資料談起。 AMD Ryzen AI Max+ 395（128GB）執行 GPT-OSS 120B，最高約可達 30 tok/s，如果把這組官方數據和我手上的 M5 Max 128GB 實測果相比，M5 Max 在 GPT-OSS 120B 上的表現明顯更快；即便保守看待不同設定差異，兩者也至少存在明顯量級差距。</p>
<p><img loading="lazy" decoding="async" class="alignnone size-full wp-image-144957 aligncenter" src="https://www.ahui3c.com/wp-content/uploads/2026/04/c88137048d50052a069dbcb4474454e4-e1776451116161.jpg" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="1164" height="452" srcset="https://www.ahui3c.com/wp-content/uploads/2026/04/c88137048d50052a069dbcb4474454e4-e1776451116161.jpg 1164w, https://www.ahui3c.com/wp-content/uploads/2026/04/c88137048d50052a069dbcb4474454e4-e1776451116161-700x272.jpg 700w, https://www.ahui3c.com/wp-content/uploads/2026/04/c88137048d50052a069dbcb4474454e4-e1776451116161-768x298.jpg 768w, https://www.ahui3c.com/wp-content/uploads/2026/04/c88137048d50052a069dbcb4474454e4-e1776451116161-720x280.jpg 720w, https://www.ahui3c.com/wp-content/uploads/2026/04/c88137048d50052a069dbcb4474454e4-e1776451116161-520x202.jpg 520w, https://www.ahui3c.com/wp-content/uploads/2026/04/c88137048d50052a069dbcb4474454e4-e1776451116161-320x124.jpg 320w" sizes="auto, (max-width: 1164px) 100vw, 1164px" /></p>
<p>另一方面，如果看 70B 級 dense 模型，情況就變得比較接近傳統 GPU 世界的直覺。公開整理資料顯示，RTX 6000 Ada 在 LLaMA 70B 4-bit 設定下，大約可達 13 至 18 tok/s；若是雙 RTX 5090，Llama 3.3 70B 32K context 約可達 26 tok/s 。相比之下，我這台 M5 Max 128GB 跑 70B～72B dense 模型的速度落在 11 tok/s 左右。也就是說，若只比純 decode 吞吐，高階桌機獨顯平台仍然較快，這沒有懸念。</p>
<h3>gpt-oss-120b 模型近似參考</h3>
<table class="aligncenter" style="width: 90%;" border="1" width="90%" cellspacing="0" cellpadding="3">
<thead>
<tr>
<td style="width: 20.6372%;">
平台
</td>
<td style="width: 15.2064%;">
參考速度
</td>
<td style="width: 18.0304%;">
來源
</td>
<td style="width: 45.3295%;">
測試條件重點
</td>
</tr>
</thead>
<tbody>
<tr>
<td style="width: 20.6372%;">
<span style="background-color: #ffff99;">M5 Max 128GB</span>
</td>
<td style="width: 15.2064%;">
<span style="background-color: #ffff99;"><strong>70.59</strong> ~ <strong>94.75</strong> tok/sec</span>
</td>
<td style="width: 18.0304%;">
&nbsp;
</td>
<td style="width: 45.3295%;">
&nbsp;
</td>
</tr>
<tr>
<td style="width: 20.6372%;">
AMD AI Max 395 128GB
</td>
<td style="width: 15.2064%;">
<strong>30</strong> tok/sec
</td>
<td style="width: 18.0304%;">
AMD 官方
</td>
<td style="width: 45.3295%;">
&nbsp;
</td>
</tr>
<tr>
<td style="width: 20.6372%;">
RTX 5090 (32GB)
</td>
<td style="width: 15.2064%;">
<strong>10.48</strong> tok/sec
</td>
<td style="width: 18.0304%;">
Reddit 原始貼文
</td>
<td style="width: 45.3295%;">
LM Studio 、 Flash Attention 、 GPU offload 30/36 、 Guardrails OFF
</td>
</tr>
<tr>
<td style="width: 20.6372%;">
DGX Spark 128GB
</td>
<td style="width: 15.2064%;">
<strong>58.72</strong> tok/sec（<u>tg32</u>）
</td>
<td style="width: 18.0304%;">
llama.cpp 官方 benchmark
</td>
<td style="width: 45.3295%;">
ggml-org 官方 benchmark Markdown，CUDA，2048 prompt setting
</td>
</tr>
<tr>
<td style="width: 20.6372%;">
RTX Pro 6000 (96GB)
</td>
<td style="width: 15.2064%;">
<strong>145</strong> tok/sec
</td>
<td style="width: 18.0304%;">
Reddit 原始貼文
</td>
<td style="width: 45.3295%;">
LM Studio，單卡 96GB 類 Blackwell
</td>
</tr>
</tbody>
</table>
<p>如果只比較目前有資料的三個平台，M5 Max 實測 gpt-oss-120b 顯示速度甚至高於 DGX Spark 官方 tg32 值，也遠高於社群貼文中的單卡 RTX 5090 + RAM offload 結果。但這裡絕對不能直接下結論說 M5 Max 全面快過 5090，因為這些數字背後的 量化格式、上下文長度、框架與是否吃到系統記憶體 很可能完全不同</p>
<h3>Llama 70B 模型近似參考</h3>
<table class="aligncenter" style="width: 90%; height: 280px;" border="1" width="90%" cellspacing="0" cellpadding="3">
<thead>
<tr style="height: 56px;">
<td style="width: 18.6821%; height: 56px;">
平台
</td>
<td style="width: 14.6271%; height: 56px;">
參考速度
</td>
<td style="width: 17.3063%; height: 56px;">
來源型態
</td>
<td style="width: 48.588%; height: 56px;">
測試條件重點
</td>
</tr>
</thead>
<tbody>
<tr style="height: 56px;">
<td style="width: 18.6821%; height: 56px;">
<span style="background-color: #ffff99;">M5 Max 128GB</span>
</td>
<td style="width: 14.6271%; height: 56px;">
<span style="background-color: #ffff99;"><strong>11.32–11.95</strong> tok/sec</span>
</td>
<td style="width: 17.3063%; height: 56px;">
&nbsp;
</td>
<td style="width: 48.588%; height: 56px;">
llama-3.3-70b
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 18.6821%; height: 56px;">
RTX 6000 Ada 48GB
</td>
<td style="width: 14.6271%; height: 56px;">
<strong>18.36</strong> tok/sec
</td>
<td style="width: 17.3063%; height: 56px;">
第三方整理頁
</td>
<td style="width: 48.588%; height: 56px;">
Llama3 70B Q4KM
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 18.6821%; height: 56px;">
2× RTX 6000 Ada
</td>
<td style="width: 14.6271%; height: 56px;">
<strong>20–30</strong> tok/sec
</td>
<td style="width: 17.3063%; height: 56px;">
Reddit 原始貼文
</td>
<td style="width: 48.588%; height: 56px;">
Llama 3.3 70B 、 128K context 、 AWQ 、 vLLM
</td>
</tr>
<tr style="height: 56px;">
<td style="width: 18.6821%; height: 56px;">
DGX Spark
</td>
<td style="width: 14.6271%; height: 56px;">
<strong>2–3</strong> tok/sec
</td>
<td style="width: 17.3063%; height: 56px;">
NVIDIA 論壇使用者回報
</td>
<td style="width: 48.588%; height: 56px;">
Llama 3.3 70B FP8 dynamic 、 vLLM 、 GB10 128GB unified memory
</td>
</tr>
</tbody>
</table>
<p>&nbsp;</p>
<p>寫到這裡，我的結論其實已經非常明確。</p>
<p>如果你的問題是：「M5 Max 128GB 能不能在純吞吐上打贏 RTX 5090 、 RTX 6000 Ada，或者更進一步去挑戰更高階的 NVIDIA 工作站卡？」那答案當然不是。只要進入高頻寬獨顯世界，尤其在純 decode 速度與 CUDA 生態成熟度上，NVIDIA 仍然是今天最難撼動的標準答案。</p>
<p>但如果你的問題改成：「我想要一台可攜、安靜、整機一體、電池可用，而且真的能把 70B 到 120B 級模型搬進日常工作流的電腦，M5 Max 128GB 值不值得？」那我的答案會是：非常值得，而且 128GB 版本的價值遠高於一般規格表能呈現的程度。</p>
<p>因為這台機器真正厲害的地方，不是單項規格看起來多誇張，而是它把幾個通常很難同時成立的條件放在一起：高單核、夠強的多核、高階等級 GPU 、超大統一記憶體、優秀的噪音與功耗控制，以及本地大模型可用性。 這使它不只是「一台很快的 MacBook」，而更像是一台你可以隨身帶著走的本地 AI 工作站。</p>
<p>對我而言，這也是為什麼這次升級的重點不是 M5，而是 M5 Max + 128GB 。因為真正讓使用體驗跨出一個級別的，不是那幾個百分點的基準提升，而是你開始能在本地直接處理過去根本不會考慮放進筆電裡的大模型。</p>
<p><img loading="lazy" decoding="async" class="aligncenter wp-image-144959 size-full" src="https://www.ahui3c.com/wp-content/uploads/2026/04/3860x-e1776451184925.webp" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="740" height="551" srcset="https://www.ahui3c.com/wp-content/uploads/2026/04/3860x-e1776451184925.webp 740w, https://www.ahui3c.com/wp-content/uploads/2026/04/3860x-e1776451184925-700x521.webp 700w, https://www.ahui3c.com/wp-content/uploads/2026/04/3860x-e1776451184925-720x536.webp 720w, https://www.ahui3c.com/wp-content/uploads/2026/04/3860x-e1776451184925-520x387.webp 520w, https://www.ahui3c.com/wp-content/uploads/2026/04/3860x-e1776451184925-320x238.webp 320w" sizes="auto, (max-width: 740px) 100vw, 740px" /></p>
<p>&nbsp;</p>
<h2>結語</h2>
<p>總結來說，M5 Max 128GB MacBook Pro 16 在 Geekbench 6 所代表的，是一台站上 2026 年行動平台最上層區間的高效能筆電；但在我看來，它真正的產品意義，並不只是在 CPU 或 GPU 排名上，而是它把 128GB 統一記憶體 變成了本地 AI 工作流的實際優勢。</p>
<p>如果你只跑 7B 、 14B 或 32B 模型，市面上有不少更便宜、甚至在某些條件下更快的選項。但如果你追求的是在一台真正可攜的電腦上，本地跑 70B 、 72B，GPT-OSS 120B 甚至是更大規模的模型，而且速度已經足夠進入日常使用，那麼這台 M5 Max 128GB，確實有它非常難被替代的位置。</p>
<p>&nbsp;</p>
<p>未完待續&#8230;&#8230;..</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<h3>測試截圖紀錄</h3>
<p>&nbsp;</p>
<p><img loading="lazy" decoding="async" class="alignnone size-full wp-image-144946" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-16-上午8.17.30.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="1092" height="510" /> <img loading="lazy" decoding="async" class="alignnone size-full wp-image-144947" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-17-下午9.20.54.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="980" height="506" /> <img loading="lazy" decoding="async" class="alignnone size-full wp-image-144948" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-17-下午9.22.25.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="1010" height="492" /> <img loading="lazy" decoding="async" class="alignnone size-full wp-image-144949" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-17-下午9.23.35.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="982" height="518" /> <img loading="lazy" decoding="async" class="alignnone size-full wp-image-144950" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-17-下午9.24.14.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="982" height="606" /> <img loading="lazy" decoding="async" class="alignnone size-full wp-image-144951" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-17-下午9.25.10.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="1004" height="492" /> <img loading="lazy" decoding="async" class="alignnone size-full wp-image-144952" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-17-下午9.25.45.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="1052" height="530" /> <img loading="lazy" decoding="async" class="alignnone size-full wp-image-144953" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-17-下午9.28.28.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="972" height="510" /> <img loading="lazy" decoding="async" class="alignnone size-full wp-image-144954" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-17-下午9.48.56.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="1036" height="668" /> <img loading="lazy" decoding="async" class="alignnone size-full wp-image-144955" src="https://www.ahui3c.com/wp-content/uploads/2026/04/截圖-2026-04-17-下午9.51.10.png" alt="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" title="Apple Macbook Pro 16 頂規 M5 Max 128GB 性能實測～ Geekbench 6 + LLM 本地 AI 大模型實測 + SSD 測速 @3C 達人廖阿輝" width="1014" height="486" /></p>
<p>&nbsp;</p>
]]></content:encoded>
					
					<wfw:commentRss>https://ahui3c.com/144937/m5-max-128gb/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<enclosure url="https://www.ahui3c.com/wp-content/uploads/2026/04/c88137048d50052a069dbcb4474454e4-e1776451116161.jpg" type="image/jpeg"/><post-id xmlns="com-wordpress:feed-additions:1">144937</post-id>	</item>
	</channel>
</rss>
