- S的 AI X GPT 研究所
- Posts
- ⚡️AI 能源耗盡爭議
⚡️AI 能源耗盡爭議
假臉技術逼真到「讓人開始懷疑」

歡迎熱愛AI 的你
Sam Altman 近期針對「AI 是否正在加劇環境負擔」的討論正面回應。他在印度一場 AI 高峰會上指出,網路上流傳的能源與用水量對比,其實很多都沒有真正理解 AI 系統的資源運作方式。他甚至把「訓練一個 AI 模型」與「培養一個人類所需的資源」做比較,這番說法立刻在科技圈引發熱議。一起快速看重點。
今天的重點整理:
Sam Altman 引爆 AI 能耗爭議
AI 生成的臉逼真到讓人開始懷疑真實性
Google 推出 Gemini 3.1 Pro,推理能力分數直接翻倍
閱讀時間 5 分鐘
🗞️最新消息
⚡Sam Altman 引爆能源爭議
Savix AI: Sam Altman 針對外界對 AI 能源與用水量的質疑作出回應,認為許多網路上的比較方式,其實誤解了 AI 系統真正的資源消耗模式。
重點整理:
1) Altman 表示,網路上流傳「每一次 ChatGPT 查詢都會消耗大量水資源」的說法「完全不正確」。
2) 他同時承認,隨著 AI 採用速度快速成長,整體能源消耗確實是一個值得關注的議題。
3) 他將訓練 AI 模型所需的能源,與培養一個人類所需數十年的教育與資源投入作比較。
細節:
在印度 AI 高峰會期間,於《The Indian Express》主辦的一場活動上,OpenAI 執行長 Sam Altman 回應了外界對 AI 環境影響的批評。
他駁斥了「每次使用 ChatGPT 都會消耗大量水資源」的說法,指出這類估算基於過時的資料中心冷卻方式,與現代資料中心的技術已經不符。
不過,他也承認整體能源使用問題不容忽視,尤其在 AI 加速普及的情況下。他認為,討論焦點應該轉向如何使用更乾淨的能源來源,例如核能、風能與太陽能。
Altman 也強調,許多能源比較的框架本身就不公平。他指出,人類的智慧養成同樣需要數十年的食物、教育與基礎建設投入,才能產出專業能力。
這番言論迅速在網路上發酵。支持者認為,應該討論的是「單位任務的效率」;批評者則認為,他淡化了資料中心擴張所帶來的電力需求壓力。
為什麼要知道:
Altman 那句「訓練一個人類」會爆紅,是因為它迴避了一個核心問題:
AI 正讓資料中心成為真正的能源議題,而不只是技術圈內的討論。
IEA 預測,2030 年前全球資料中心用電量可能翻倍成長;美國官方也指出,資料中心用電占比正在快速上升。歐盟更開始要求揭露資料中心能源表現,顯示監管已經跟上。
這場爭論的關鍵不只是模型強不強,而是:
誰能取得電力?誰付基礎建設成本?乾淨能源能否跟上 AI 成長?
下一階段的 AI 競爭,本質上也是能源與基礎建設的競爭。
本期電子報由 AI EXPO 2026 贊助
🌟年度最大AI盛會登場!🚀

幫你一次看懂 AI 正在怎麼改變工作、品牌與未來職能。
🔥 為什麼這要參加?
✔ 免費參加,零門檻
✔ 報名就送「大會限定 AI 影音課程(X Album)」
✔ 不是工程師限定,一般上班族、行銷、自媒體都看得懂
✔ 從「現在怎麼用」一路看到「接下來該學什麼」
💡🎓 報名就送|大會限定免費課程(X Album)
由 S 的 AI 研究所 × AI EXPO Taiwan 2026 聯合推出
《品牌 AI 超引擎:風險拆彈 × 人格養成 × GEO 攻榜實戰》
你會學到:
掌握社群風向,避免內容踩雷
用 AI 即時分析輿情與趨勢,讓內容不再做錯方向讓品牌自動跟粉絲互動
打造會聊天、有個性的 AI 品牌人格,留言與私訊自然增加讓 AI 搜尋主動推薦你
實戰教學,讓 ChatGPT、AI 搜尋更容易看見並選中你的內容
📌 這套課程只有完成展會報名才能免費取得
👀 讀者專屬|3/26 導覽場
這次 S 的 AI 研究所擔任 AI EXPO Taiwan 2026 大會見證人。
3/26 當天,我會親自帶一場讀者專場導覽:
幫你篩選重點
告訴你哪些值得看
把大型展會變成「共同的學習現場」
👉 導覽報名請點這裡
🧠Google 推出Gemini 3.1 Pro, 推理能力翻倍成長

Savix AI:AI 生成的假臉,已經「真到難以分辨」
重點整理:
1) Gemini 3.1 Pro 在測試中,推理能力較 Gemini 3 Pro 翻倍。
2) 新成績讓它躋身最強推理模型之一,但部分排名仍落後競爭對手。
3) 測試表現亮眼,但實際應用效果仍待觀察。
細節:
Google 發表 Gemini 3.1 Pro,主打更強的邏輯推理與問題解決能力。在 ARC-AGI-2 測試中,模型拿下 77.1%,相較 Gemini 3 Pro 的成績大幅提升。這也延續了先前 Gemini 3「Deep Think」模式的方向,強化科學與工程等複雜任務的處理能力。
在 Humanity’s Last Exam 測試中,Gemini 3.1 Pro 得分 44.4%,優於前一代。不過在整體能力與安全性評比上,Anthropic 的 Claude Opus 4.6 仍在部分項目領先。
為什麼要知道:
Google 正把 Gemini 3.1 Pro 整合進 Gemini App、NotebookLM 以及開發者工具中,強調實際工作場景的應用能力。
但現在的趨勢是:榜首位置變動極快。某些模式可以透過延長推理時間來提高分數,而競爭對手在能力廣度與安全性上仍有優勢。對多數團隊而言,重點不再是「誰第一」,而是:哪個模型在你的日常流程中更穩定?成本如何?取捨在哪?
⚠️研究警告:AI 生成的臉已逼真到難以分別

Savix AI:最新研究顯示,AI 生成的人臉已能騙過多數人,進一步引發對身分驗證與網路信任機制的擔憂。
重點整理:
1) AI 生成的人臉,逼真程度已與真實照片幾乎無差。
2) 就連「超級辨識者」也難以穩定辨識真假。
3) 多數人嚴重高估自己識別 AI 圖像的能力。
細節:
UNSW Sydney 與澳洲國立大學研究團隊,在《British Journal of Psychology》發表研究,測試 125 名受試者分辨真實人臉與 AI 生成臉孔的能力。結果顯示,一般人表現僅略高於隨機猜測;即使是專業的「超級辨識者」,也只稍微好一點。
現代 AI 生成的人臉已不再出現明顯瑕疵,反而呈現「過於平均、對稱、典型」的特徵。目前團隊正研究是否存在「超級 AI 假臉偵測者」,以強化未來防護機制。
為什麼要知道:
當 AI 臉孔比真人還「自然」,整個網路生態都更容易被操弄——假 LinkedIn 帳號、感情詐騙、假客服帳號,甚至過度依賴自拍驗證的 KYC 流程,都會受影響。
真正令人擔心的是:大多數人其實在猜,卻自認很會辨識。未來的信任機制,將從「我看得出來」轉向更嚴謹的技術手段,例如活體檢測、更強驗證流程,以及圖像來源追蹤。我們的眼睛,已不再是可靠的防線。
🎯一分鐘快速看
⚖️一名律師表示,因為上傳檔案至 NotebookLM,Google 關閉了他的 Gmail、Voice 和 Photos 帳號。
🔬 AI 在第四態物質(電漿態)研究中,揭示出出乎意料的新物理現象。
🎮 Microsoft 新任遊戲部門 CEO 表示,不會讓整個生態系充斥「無止盡的 AI 垃圾內容」。
🩺 倫敦警察廳(Met Police)使用由 Palantir 提供的 AI 工具,標記警員的不當行為
📈 熱門工具
🚀 Replit — 用 AI 建立 App 與網站。
🎞️ Filmora AI — 透過 AI 功能,帶來全新的影片剪輯體驗。
🎙️ Krisp — AI 會議助理。
🎬 Descript — 用 AI 像編輯文字一樣編輯音訊與影片*
恭喜你讀完了!今天又成長了一些
在你離開之前,我們想聽聽你的想法!
希望能讓你在SAVIX AI的體驗更好 🤖
下期再見囉!
