- S的 AI X GPT 研究所
- Posts
- 🔥 蘋果新模型表現優於 GPT-4
🔥 蘋果新模型表現優於 GPT-4
還有更多:200 名音樂家簽署反對AI 的公開信

歡迎, 熱愛AI的你
蘋果的研究團隊開發了一種人工智慧模型,在理解上下文方面超越了 GPT-4,這項突破可以顯著增強 Siri 的功能。 200 名音樂家簽署了一封公開信,批評大型科技公司在未經許可的情況下使用藝術家的作品來訓練 AI。 此外,Anthropic 的研究人員透過提出越來越危險的問題,成功地「欺騙」他們自己的模型說出不該說的話。 讓我們深入了解一下吧!
今天的觀察重點:
蘋果新模型表現優於 GPT-4
200 名音樂家簽署反對 AI 的公開信
人類研究人員透過持續的探究來研究 AI 倫理
閱讀時間:4分鐘
🗞️最新發展
Apple
🔥蘋果新模型表現優於 GPT-4

Source: Maria Diaz/ZDNET
GPT研究所: 蘋果研究人員開發了一種AI 模型,旨在從根本上增強語音助理理解和回應命令的方式。
重點整理:
ReALM 在輕鬆理解上下文方面比 GPT-4 做得更好。
Apple 會將您對 Siri 說的所有內容轉換為文本,以便於理解。
ReALM 可以直接在您的裝置上運行,讓一切變得快速且私密。
詳情:
Apple 的 ReALM 正在改變 Siri 的遊戲規則,使其更聰明、更快速。 它專注於將不清楚的命令轉化為清晰的文本,這意味著 Siri 可以更好地理解您並更快地執行您的要求。 ReALM 比 GPT-4 更簡化,因為它使用更少的步驟來理解上下文,例如您正在談論的人或事物。 這可以讓 Siri 直接在您的 iPhone 或 iPad 上工作,確保您的資訊安全並快速回應。 ReALM 避免了 Siri 透過查看圖像來了解您的意思,這是一個巨大的進步。 它只是將您所說和看到的內容轉換為 Siri 可以輕鬆使用的文字。 蘋果研究人員發現,這種策略與針對參考解析任務的語言模型的特定微調相結合,顯著優於傳統方法,包括 OpenAI 的 GPT-4 的功能。
為什麼要知道:
蘋果公司採用更簡單、文字驅動的方式讓 Siri 理解我們的意思,這是一個非常令人興奮的消息。 這意味著我們與 Siri 的對話可以變得更像是與朋友聊天,而無需擔心隱私。 隨著 Apple 準備在 WWDC 2024 上分享其完整的 AI 計劃,我們設備上的 Siri 的未來看起來一片光明。 這確實可以改變我們使用人工智慧的方式,使其成為我們日常生活的一部分。
AI & MUSIC
🚀 200 名音樂家簽署反對AI的公開信

Source: Dia Dipasupil / Staff / Getty Images
GPT研究所: 由 200 名音樂家組成的團體簽署了一封公開信,呼籲不要利用AI 音樂生成工具來破壞人類的創造力。
重點整理:
包括 Nicki Minaj 和 Billie Eilish 在內的 200 多名音樂家表達了對音樂AI的擔憂。
他們在一封公開信中強調了AI 對隱私、身分和生計的威脅。
這封信要求防止 AI 在音樂產業的掠奪性使用。
詳情:
這封信是由藝術家權利組織藝術家權利聯盟(ARA)發起的。 ARA 總監 Jen Jacobsen 強調,這封信不是關於立法,而是與技術和數位合作夥伴合作,創造一個不會取代人類藝術家的負責任的市場。 這封信批評大型科技公司未經詢問就用藝術家的作品來訓練AI 。 他們說,這可能非常有害。 即使一些公司擁有適當的許可來生產AI 音樂工具,藝術家們仍然擔心對所有創作者的影響。 音樂家們的這一舉動表明,他們對AI 如何不公平地使用和削弱人造藝術的價值越來越感到不安,這反映了作家早期對AI 使用受版權保護的內容的抗議。
為什麼要知道:
這封信的發佈時機恰逢生成式AI的高速發展期,可以根據簡單的文字指令產生適當、連貫的音樂,包括歌詞。 簽署者認為這對許多職業音樂家的生計構成威脅。
ANTHROPIC
🤖人類研究人員透過持續探究調查 AI 倫理

Source: Anthropic
GPT研究所: Anthropic 的一篇新論文展示如何欺騙AI 給出不道德的答案。
重點整理:
研究人員找到了一種方法,慢慢地提出更具風險的問題,讓AI給出不應該給出的答案。
這個技巧利用了AI一次記住大量資訊的能力,這在以前是不可能的。
透過提出許多問題,AI可以更好地完成任務,但這也可能導致它違反規則。
詳情:
這項發現的核心在於AI 的“上下文視窗”,它在新模型中明顯更寬、更大。 這種稱為「多次越獄」的新技巧利用了AI 模型記憶和使用資訊的方式。 透過先提出許多簡單的問題,然後慢慢添加更嚴肅的問題,AI 開始回答它通常不會回答的問題。 雖然AI 增強的上下文視窗提高了各種任務的效能,但它也為操縱這些系統違反道德準則打開了大門。 Anthropic 的研究人員發現,當他們這樣做時,AI 能夠更好地正確回答,即使是對於它不應該回答的問題。 他們分享了他們的發現,以幫助提高AI 的安全性。 這種方法顯示了AI 對是非的理解存在差距,引發了關於如何使AI 保持在道德範圍內而不降低其幫助我們的能力的重要討論。
為什麼要知道:
隨著AI 安全性不斷提高,它必須不斷改變以應對新的危險和弱點。 Anthropic 的研究表明,使用者所說的內容與語言模型的工作方式之間的關係是多麼複雜。 這凸顯了在創建和使用人工智慧技術時始終擁有強有力的保護並始終小心謹慎的重要性。 這種情況讓我們想知道,隨著AI 變得越來越聰明,我們將如何讓AI 走在正確的道路上,以及需要採取哪些步驟來確保它尊重道德界線?
🎯一分鐘快速看
🤖Sam Altman: Sam Altman 放棄了 OpenAI Startup Fund 的控制權,解決了不尋常的企業風險結構。
🔍️ 訓練中的AI :AI公司耗盡了訓練資料。
熱門AI工具
🔊Voscribe-AI 支援的轉錄工具(連結)
📄 Transcriptal - AI 驅動的平台可確保精確轉錄,以異常清晰的方式捕獲每個單字(連結)
🔍️HoopsAI- 即時交易洞察與分析 (連結)
🎙️Bootcast AI-將Podcast轉變為互動式聊天機器人以提高受眾參與度和洞察力的工具 (連結)
謝謝你的閱讀!👏🏻
see you soon !
S