顯示具有 AI 標籤的文章。 顯示所有文章
顯示具有 AI 標籤的文章。 顯示所有文章

2024/12/31

Google 不是省油的燈, Veo2 將出OpenAI的Sora要小心了

  這一兩週以來利用工作以外的時間都在把玩OpenAI 的Sora影片生成功能。也利用Christmas 無流量限制期間大量生成影片,但結果真的是不滿意,最主要還是人物或是動物或是物理的動作或移動上種種不合理現象。想要用它來製作影片還有一大段路要走。

        Google 的Veo 2 雖然還沒正式推出,但對它已經是充滿期待了。因為它的物理動作比較正確,不會像Sora 常出現不合理動作的問題。只是比較可惜,它還在實驗階段,沒有像Sora一樣可以讓大家使用。


2024回顧及展望2025與新希望

  2024在今天12/29即將接近結束,依照慣例要來回顧一下今年的各種經歷及工作成果。另外,也要展望2025年不管是自己的工作或是未來世界的發展。

2024 工作成果:
  • 個人職涯:身兼二職,也正式帶領團隊完成重大專案。
  • AI應用:長期訂閱及關注AI發展。也建立自己的YouTube 影音頻道,雖然是整合影片生成,圖片生成及音樂生成,也用iMove 簡單製作影片。上傳了短影片及長影片。真的體會到AI 工具的生成威力。
2025 展望:
  • 自我成長:今年工作績效雖然不錯,長官也給予肯定。但明年在帶領團隊上仍有進步空間。
  • 持續學習AI 知識和工具應用在生活及工作上。
  • 投資理財:2024年果達標,2025年許多預測都是不確定性高。但是我個人目標仍是10%的報酬率。重心仍在 ETF 0050,至於台積電則是拉回再買。
  • 學習泰語:持續在口說上有進步,也在閱讀上有成長。對2025年泰國新聞多接觸,全面性的認識泰國。
  • Copilot : 工作上會加強對 copilot 的學習及應用。
  • Gemini : Google 畢竟是強大的公司,雖沒有OpenAI 在AI 上有熱度,但其 Veo 2 是讓我對 Sora 失望後的期待。
2025 新希望:
  • 拍照及攝影:這是我的生活樂趣之一。不管是上傳至Instagram 或是Thread /YouTube 都是今年要新嚐試的方向
  • 書法:最近在YouTube 上找到許多書法學習及深度鑑賞的影片,會持續下去。偶爾會練練硬筆字
  • 造型:找到一付好眼鏡及新的休閒鞋
  • 多涉獵不同領域

2024/12/22

生成式 AI(Generative AI)應用所衍生的各項發展方向

  目前生成式 AI(Generative AI)應用的發展快速,對未來幾年 AI 算力、電力需求與半導體先進製程發展的可能影響,個人提供一個整體的展望。


一、生成式 AI 對算力需求的推動

1. 模型規模持續增長

近年來生成式 AI(如 GPT 系列、PaLM、Llama 等)不斷擴張模型參數規模,從過去數億參數成長到數千億、甚至兆級參數。

大模型對硬體資源的需求極其龐大,包含 GPU/TPU 等專業加速器、超高頻寬記憶體以及高速網路互連。

在研發與推廣過程中,模型不只在訓練時需要大量算力,在推論(Inference)階段,如 ChatGPT 這類應用需要持續提供大量的線上推論服務,也對算力形成大規模且常態性的需求。

2. 資料中心(Data Center)升級與擴建

由於生成式 AI 的應用極度依賴雲端資料中心,未來幾年各大超大型雲服務業者(Hyperscalers)如 Amazon、Google、Microsoft、Meta 以及其他專門供應 AI 基礎設施的業者都將持續擴建 GPU/TPU 叢集。

相較於傳統 CPU 為主的伺服器,GPU/TPU 伺服器在機架內密度更高,功耗也相對更大;同時還需要冷卻、配電及網路互連的大幅升級。

3. AI 專用晶片與客製化解決方案

除了通用 GPU(如 Nvidia、AMD)外,各大企業也積極開發或採用客製化 AI 加速晶片(ASIC、FPGA 甚至 RISC-V 方案),以應對大規模推論的延遲與成本問題。

這些客製化解決方案亦仰賴先進製程來降低功耗並提高運算效率。


二、電力需求與能源挑戰

1. 資料中心能耗快速提升

AI 伺服器高密度部署會造成資料中心整體能耗飆升,未來幾年隨著生成式 AI 普及度提高,對全球資料中心電力需求將持續攀升。

目前已有多家機構預測,隨著 AI 工作負載增加,資料中心能耗在短期內(3-5年)將翻倍,部分關鍵數據中心甚至會出現電力供應瓶頸。

2. 冷卻與散熱方案的重要性

為應對高功耗晶片及機櫃密度的上升,液冷、浸沒式冷卻等更有效率的散熱技術獲得關注。

資料中心選址逐漸考量水資源可近性、電力基礎建設穩定度,以及當地電價與環境法規。未來將出現更多位於高緯度或鄰近再生能源基地的超大規模數據中心。

3. 再生能源與綠色供電壓力

全球各地政府與大型科技企業紛紛承諾達成碳中和(Net Zero),對資料中心的能源使用提出更嚴苛的綠電採購與節能要求。

由於 AI 推廣需要巨量電力,如何確保綠電供應以支撐算力成長,將是未來幾年重要議題。


三、半導體先進製程的發展

1. 摩爾定律仍在進展,但難度遞增

從 7nm、5nm、3nm,再到規劃中的 2nm、1.Xnm,半導體製程每往前推進一代,其研發與製造成本皆大幅上揚,曝光、蝕刻、量測等每個步驟都需要最尖端的設備與技術。

TSMC(台積電)、三星、英特爾皆在競逐先進製程領先地位,尤其為滿足 HPC(High Performance Computing)與 AI 晶片需求,3nm 及 2nm 製程會被優先分配給高附加價值的客戶(例如蘋果、Nvidia、AMD 及超大型雲服務商的客製晶片等)。

2. Chiplet 與先進封裝技術

當單一硅晶圓上繼續微縮變得越來越困難與昂貴,透過 Chiplet(小晶片模組化)與先進封裝技術,將不同功能(CPU、GPU、NPU、IO Die)整合在同一封裝中成為趨勢。

TSMC CoWoS、Intel EMIB、三星 X-Cube 等先進封裝方案,能在減少整體尺寸的同時,改善延遲與功耗,滿足 AI 需要的大規模運算與高速資料傳輸。

3. 先進製程與運算效率

AI 晶片對運算效率(TOPS/W, FLOPS/W)非常敏感,先進製程可有效降低功耗並提升時脈、封裝整合度,對大模型訓練與推論極具吸引力。

後摩爾時代,除了微縮以外,也將更多著眼於晶體管結構創新(GAA、Forksheet、CFET 等)以及材料突破(如新型絕緣材料、低介電常數介面等),以維持性能增長。


四、綜合展望與趨勢

1. AI 算力需求持續高速成長

生成式 AI 將成為企業數位轉型與雲端運算的關鍵驅動力,預計在接下來的 3-5 年,AI 訓練與推論工作負載在整體資料中心比重中顯著提高。

結合多領域應用(醫療、製造、語音影像、文本生成等),更會推升 AI 所需的晶片銷量與雲端運算規模。

2. 電力與節能挑戰日益嚴峻

數據中心能耗上升帶來的問題,將倒逼各大廠持續研發更高效率的硬體(先進製程 + 先進封裝 + 硬體加速器)與更有效率的冷卻技術,同時也增加對綠電的需求。

政府面臨電力基礎建設規劃與碳排放政策的挑戰,企業亦需在高效能運算與環保節能之間取得平衡。

3. 半導體先進製程高度集中化

由於先進製程門檻超高,未來頂尖的先進製程將持續集中在少數廠商手上(台積電、三星、英特爾),且市場需求多半來自 HPC、AI、手機旗艦 SoC。

半導體供應鏈仍存在地緣政治風險,主要先進製程廠積極在多地布局(美國、歐洲、日本等)以降低風險,也會推升整體製造成本。

4. 軟硬體協同設計與新架構興起

生成式 AI 驅動下,硬體廠商與雲服務業者將更緊密合作,共同優化軟硬體體系架構(例如 AI 專用指令集、分散式訓練架構、混合精度運算等)。

量子運算、光子運算、記憶體計算(In-Memory Computing)等新型態技術,也在測試階段嘗試解決傳統架構瓶頸。這些技術能否在 5-10 年內商業化,仍需關注技術成熟度與成本效益。


結論

生成式 AI 的爆發 帶動大模型訓練與推論需求,使 AI 算力需求在未來數年持續快速增長,進而推升資料中心的電力需求冷卻難度

半導體先進製程 在硬體性能與能耗比的提升上扮演關鍵角色;然而,隨製程演進,投資成本、技術門檻與地緣政治風險同步升高,將使先進製程高度集中化與全球供應鏈緊張並存。

•面對龐大的用電量環保節能挑戰,各大科技廠、雲服務商與政府必須在 高效能運算綠電供應技術創新 之間取得平衡。預料未來幾年,圍繞著 AI 晶片研發、先進封裝技術以及資料中心能源效率提升的投資與技術突破仍將持續加速。


AI 產業無疑是未來全球經濟與科技發展的核心驅動力之一,從硬體晶片到軟體服務、再到各垂直應用,皆蘊藏著豐富的成長機會。但投資人應同時認知到該產業的快速變革與競爭風險,並配合全球經濟、產業週期、公司財報表現進行綜合判斷。最終,能否在 AI 股市題材中獲得長期且穩健的報酬,關鍵在於對公司基本面、技術與估值的深度分析,以及合宜的投資組合與風險控管。

2024/10/02

Liquid AI 又給我們帶來了AI model 的驚喜

  AI model 的進步和競爭是超級激烈的。除了 Meta Google OpenAI Claude 之外,現在又多了 Liquid AI ,發表了新一代生成式AI 模型 LFM (Liquid Fundation Model),特別的是它不是用Transformer ,在記憶體的消耗上有特別的表現,LFM 1.3B, 3B 小模型的評比也相當優秀。

    https://www.liquid.ai/liquid-foundation-models

也可以在官方網站試試其表現,我對其回應速度真的有驚訝到。在大公司都在比拚大模型,Transformer 參數量已經大到一般個人電腦或小型伺服器都很難執行推論。之前Mamba 的出現我已經嗅到該是有其它方案推出的時候了,因為Nvidia 的產品實在太貴,小公司實在負擔不起,許多企業對雲端AI運算實在不放心,深怕自己的資料外流。能落地在自家公司內部主機運行就要讓模型更小。

     目前看來,這家的模型不是開源。


2024/09/30

macOS Sequoia 15.1 Beta 5 體驗 Apple Intelligence

  前幾週更新到 macOS Sequoia 15.0 ,和Sonoma 比起來實在感受不到什麼特別之處,主要是自己的iPhone 8 Plus 無法搭配,因為我最想要的功能是在MacBook Air M2 上直接操作iPhone 。再加上會在按到開機鍵時會莫名重開機,我只好手癢又將它升級到 macOS Sequoia 15.1 Beta 5

      坦白說,MacBook Air M2 是我的工作和生活兩用機,這麼做實在冒險,但也只能說自己不知道那一根筋不對勁。升級 Beta 5 之後也沒看到什麼功能,就是看到 Apple Intelligence 功能有了,啟用Siri 後試了幾下,我只能說中文版還是有待加強,只能等正式版。其實,這時候沒有 Apple Intelligence 功能啟用,你要先切換到English language 後重新開機,再加入 Waiting list。不到一小時我的Waiting list 就通過了。


第一個試用的功能就是 Writing Tools ,如上圖。我先打開 TextEdit 後,輸入一串英文句子,再選取想要它幫忙改寫的部份,右鍵選單 Writing Tools > Rewrite。就會得到改寫版本。

對英文寫作表達有需求的人,Writing Tools 真的是一大利器。在MacBook Air M2 16GB 上執行幾乎都是秒回,你會看到整個APP 閃了一下就完成了。


從上圖可以看出,Writing Tools > Make Professional 將我的破英文改寫後果然好多了。

接下來試一下"翻譯"功能:一樣選取文字後選"Translate",再選來源語言及要翻成的目標語言後就完成。


英翻中沒問題,那麼中文翻譯成英文呢?實際測試結果是可以的。

以下是 Friendly / Professional / Concise 三種風格改寫結果,提供大家參考:

— original 


Today is Friday. I have 2 Typhoon off and just back to work.

There are many things to catch up in the morning .

Then, I have a manager meeting in the afternoon.


—- Friendly

Guess what? It’s Friday! I’m back at work after a long weekend. I have a lot to catch up on in the morning, but I’m excited to get started. Oh, and I have a manager meeting in the afternoon, but that’s just part of the job. How are you doing today? Anything exciting planned?


— Professional 


Today is Friday, and I have returned to work after taking two days off due to Typhoon.

There are several tasks that need to be completed in the morning.

In the afternoon, I have a manager meeting scheduled.


— Concise


Today’s Friday. I’m back at work after two Typhoons.

I have a lot to catch up on in the morning.

Then, I have a manager meeting in the afternoon.


2024/10/16 macOS Sequoia 15.1 Beta 7 釋出,之前使用 Beta 6 仍有不預期當機現象。看看這版有沒有改善。


2024/11/12 Sequoia 15.2 Beta 2 太容易當機,終於推出 Beta 3 ,第一時間更新,希望不要再當機或是黑屏。



2024/08/31

ChatGPT - GPT 4o 的 Strawberry 回答字母r出現次數錯誤及比較Claude 和 Gemini

  OpenAI 已經預告第三季可能推出更強大的模型Strawberry。但是最近我在網路上看到有人再討論ChatGPT 對 Strawberry 這個英文字中有幾個 r 有回答錯誤的情況,我個人認為這麼簡單的問題怎麼可能難得倒ChatGPT,自己有訂閱,所以也就來驗證此新聞的真實性。直接對GPT-4o進行,結果真的印證了此說法。
一開始就回答錯,請它檢查也是一樣

提示它在t 和 e 後面,還是答錯,連它自己仔細檢查後回答還是錯


最後,放大招教教它,請它將每一個字母列出來,並且列出次數。這下出它列出來的次數終於對了。它也認錯了。

我想了一下,這個問題可能是因為使用中文表達和使用英文表達會影響結果,所以改用英文來問,且新開一個對話避免被上一個對話影響,結果是使用英文一次就回答正確:


接下來將模型換成 ChatGPT 4o mini ,也是新開一個對話,結果回答 r 出現兩次的問題出現了。


完全一模一樣問句,再切換模型 ChatGPT 4o 和 ChatGPT 4再分別測試一次,都是正確的。我真的是不知道說什麼?

試過 ChatGPT 後,再想到 Claude AI 這家,也用相同問題問一下,結果是正確的。

最後,想到 Google 的 Gemini ,不試一下怎麼行? 結果是錯的,它也回答只有 2 個 r


再用 "請將 Strawberry 這個英文字中每一個字母列出來並計算其出現次數"這種方式問 Gemini ,結果竟然是錯的,錯的離譜。

r 這個次數應該是 3,它回答成 2 , e 次數應該是 1 ,它回答成 3

Claude AI 回答則是完全正確:

這個問題在 ChatGPT o1-preivew 模型已解決,但是 o1-mini 問題仍然在。

2024/08/15

GPT-4o 更新 2024/08

  OpenAI 的ChatGPT 釋出 GPT-4o 更新。我在 MacBook Air 上的APP收到更新如下:


 ChatGPT 1.2024.219

   直接問它更新內容為何?


我個人對"多模態能力"最感興趣,請它再詳細說明得到回答如下:

在 ChatGPT-4o 的最新版本中,多模態能力的增強主要集中在以下幾個方面:

1. **圖像理解與生成的整合**
ChatGPT-4o 現在可以更有效地處理和理解圖像數據,並將其與文本數據結合使用。這意味著用戶可以向模型提供圖片,並要求它生成相關的描述、分析或回答與圖片內容相關的問題。例如,當用戶提供一張自然景觀的照片時,模型可以描述照片中的地標、分析天氣情況,或根據圖片內容回答具體問題。

2. **圖文混合輸入**
多模態能力的增強使得 ChatGPT-4o 能夠處理包含文本和圖像的複雜輸入。例如,用戶可以同時上傳一段文字和一張圖片,要求模型根據這兩者生成有意義的回應。這在需要綜合考慮多種信息來源的情境下特別有用,如產品評論分析、新聞報導生成等。

3. **跨模態推理**
ChatGPT-4o 能夠在不同的模態之間進行推理,這意味著它可以將圖像中的信息與文本中的信息相結合來進行更深入的分析。例如,當用戶提供一張圖表或地圖,並附上相關問題時,模型可以根據圖表中的數據與文本中的內容給出推理結果或解釋。

4. **增強的圖像描述生成**
在生成圖像描述方面,ChatGPT-4o 提供了更為細緻和準確的描述能力。這包括對圖像中的細節進行準確識別並生成自然流暢的描述文字。這對於需要詳細解說的應用場景,如數位助理幫助視障人士理解圖像內容,尤其有幫助。

5. **互動式圖像問答**
使用多模態能力,ChatGPT-4o 可以支持更為互動式的圖像問答系統。用戶可以基於圖片提出連續性的問題,模型將根據每個問題重新分析圖片並生成相應的回答。例如,用戶可以提供一張街景照片,詢問照片中某個建築物的位置、特徵,或周圍環境的詳細描述。

6. **實際應用增強**
這些多模態能力的增強在實際應用中有著廣泛的潛力。例如,在電商領域,模型可以幫助分析產品圖片並生成產品描述;在醫療領域,它可以輔助醫生根據醫學影像進行診斷;在教育領域,模型可以根據教科書中的圖片輔助解說概念。

這些增強的多模態能力使得 ChatGPT-4o 成為一個更為強大的工具,能夠處理更複雜的任務並提供更豐富的互動體驗。

2024/05/19

AI PC 又是個廠商騙錢的新招數?

  生成式AI的火熱造就電腦應用上好像沒有AI 就跟不上時代似的。最近更有廠商打著AI PC的新名詞想要大賣自家的廠品。身為一個從PC 起家時代就一直在資訊產業的工作者來看,這似乎又是行銷的新花招罷了。

     生成式AI模型要落地到個人電腦或筆記型電腦上使用,當然是AI模型能直接在自己的裝置上運算,而不是依賴雲端運算後再透過網路回傳使用者的裝置。所以,個人裝置AI算力就要相對提升,也就是硬體元件要符合算力需求。

    目前個人最看好的 AI PC 或說是AI 筆電產品還是 Apple MacBook 系統,主因還是晶圓製程優勢下的CPU GPU 。再加上 Apple 完整的軟硬體整合生態,再配合以使用體驗為中心的產品設計,所以看看最近發表的iPad Pro 用上M4 晶片你就可以看出來了,再加上自家軟體配合優化及體驗提升,可以說那些把AI兩個字掛在嘴上的廠家只能騙騙不懂的消費者。個人還是認為不要冒然投入金錢購入相關產品,等2025年之後比較成熟再進行。

2024/06/11 WWDC 中 Apple 介紹自家的 Apple Intelligence ,除了整合 OpenAI 的 ChatGPT外,更是在 iPhone 和 Mac家族產品落地使用 AI 在產品功能上。這也是我最期待的,就其展示出來的效果來看,確實讓那些一直在喊 AI PC的廠商汗顏。可惜就連 Apple 也只是先把產品藍圖先公告出來,自己英語系的應用也要等 iOS 18.1 macOS Sequoia 15.1 才會推出,而且只能支援AI算大較佳的機種。

ARM v9 在非蘋果陣營應該在2025年都會有較佳的晶片推出,像是聯發科天璣9400,產品推出之後各Android 手機大廠的新產品再來比較其AI應用的表現了。

 

    

2024/05/14

OpenAI 發表GPT-4o 令人振奮?還是害怕?

  昨天OpenAI 用一場生動的 Live Demo 展示了新產品 GPT-4o

    
看完之後,我只能說進步速度之快,超乎我的想像。就像當年AlphaGo在圍棋上打敗人類一樣。

當然,在ChatGPT 2022/11 橫空出世讓全世界驚嘆之外,我個人覺得它在我預期AI 要在"聽說讀寫"四個方面都統合的能力才會對世界造成更大的影響,但看完這個 Demo 後,真的是提前到來了,比我預期的還快。

2024/5 月GPT-4o 發表,我在搞定我的信用卡問題後,終於在2024/6/11 再度訂閱服務,使用三天後第一個想法是,這個服務變得更超值了。之前先後暫停訂閱服務幾次,主要是因為只有純文字服務,應用較少。現在,情況已經改觀了,直接以語音對話,對話文字還會留下歷程在以前的文字介面。

第一個用它來當語言老師,自己試過英文/日文/泰語/法文,都可以。20美元一個月是請不到一個多國語言教師的。

第二個應用:圖片中的內容辨識,除了會說明圖檔中的文字,也會翻譯。也可以問它圖片中的物品及場景等。





2024/02/19

2024 年對AI 應用的期待

  硬體廠商今年在Edge Computing 邊緣運算加大力度,PC及筆電廠商也推出各種新產品。個人認為這只是個開始,這產業趨勢會對人類產生各種層面的影響。最看好的還是Apple,它在硬體上有優勢,軟體上只要整合好AI ,它還是大有可為。身為一個iPhone , Mac 用戶仍然期待Apple 在今年推出令人亮眼的產品或服務。例如:AI 修圖,改善文字朗讀(Text To Speech: TTS)

Hardware manufacturers are doubling down on Edge Computing this year, with PC and laptop makers also launching various new products. Personally, I believe this is just the beginning; this industry trend will have various impacts on humanity at multiple levels. I am most optimistic about Apple, which has an advantage in hardware. As long as it integrates AI well in its software, there is still much it can achieve. As an iPhone and Mac user, I still look forward to Apple launching eye-catching products or services this year.

     AI model 在進入2024年後也是各大巨頭各顯神通,Meta/Google/OpenAI/... 。對一個新 model 可能都還沒導入,且還在評估或測試階段,model 就有有新的進步,新版本又推出了。至於算力,那更是大家都拚了命在追加,但永遠不夠用,OpenAI 的 Sora (文字生成影片)一出,算力的需求又要再加大,之前在使用文字生成圖片時就感到算力吃緊。
現在在生成影片的需求下,看來永遠不夠用了。

As we entered 2024, major tech giants like Meta, Google, OpenAI, and others have been showcasing their prowess with AI models. When a new model is still not fully implemented, being in the evaluation or testing phase, it often happens that the model sees new improvements, and a new version is released. As for computing power, everyone is desperately trying to increase it, but it's never enough. With the launch of OpenAI's Sora (text-to-video), the demand for computing power has escalated even further. Previously, when using text-to-image generation, the strain on computing resources was already felt. Now, with the demand for video generation, it seems like it will never be sufficient.

     AI model 在記憶體使用的優化及model 本身優化也是有些進展,這也是今年值得期待的事。

There have been some advancements in optimizing memory usage and improving the models themselves, which are also something worth looking forward to this year.

   生成式AI 的提示工程是未來使用AI 很重要的技能之一,未來AI 普及後,世界上可能只有兩種人,一種是會使用AI,另一種是不會使用AI的人。

One of the crucial skills for future AI usage is prompt engineering for generative AI. With the proliferation of AI in the future, there may only be two types of people in the world: those who can effectively use AI and those who cannot.

ChatGPT 再次訂閱心得

  2024年又是AI持續發光發熱的一年,各大巨頭持續在AI model 上有進展。OpenAI 也終於迎來的 GPT4,台灣春節前一直要再訂閱都無法成功,以為是自己已經落入wait list。結果,春節後就訂閱成功了,原來是有新功能要推出,閉鎖了一段時間。也該再多花點時間來深入GPT4有那些能耐了。

      自己平時最常用的還是中文翻英文的功能,今天2024/02/19發現它已經整合Bing 搜尋引擎功能,看來我可以不用再去用copilot 了。

      生成圖片:還是要用專業的Midjourney,Leonardo.ai 。單純使用文字下指令的介面沒有很好用,也不直覺。產生的圖片效果也不佳,主因是訓練資料不足,我請它生成一位女劍客在草地上練劍。結果都是手持的彎曲武士刀,或是長度太長,劍柄一直都是以武士刀刀柄改不過來。最後結果是以下搞笑樣子。



以圖生圖:上傳一張自己的自拍照,請GPT4依據該照片的臉型提供適合的眼鏡及帽子的建議,這個用法有點意思,可以用自己的照片試試。

資料分析: 上傳一份知識問答題庫Excel ,分析Excel 中的資料。它能給出以下回答:
上傳的Excel檔案包含了一個表格,這個表格有五列和五個欄位。欄位分別為「No」、「類別」、「問題」、「知識編號」以及「答案」。這看起來像是一個知識問答資料庫,列出了不同類型(如信用卡和銀行)的常見問題,以及對應的解答和知識庫編號。

數學題:小明自備款400 萬自備款,要買 2000 萬房子, 貸1600 萬,還款年利率 3% , 每月本金及利息要還多少才能在20年還完? 請詳細說明計算過程。

   回答:當然,我們可以使用等額本息還款法來計算小明每月需要支付的金額。等額本息還款法是指每月還款金額固定,包含本金和利息兩部分,隨著時間推移,每月還款中本金比例逐漸增加,利息比例逐漸減少。

以下是計算過程:

1. 首先,確定貸款的基本信息:
   - 本金(Principal):1600萬台幣
   - 年利率(Annual Interest Rate):3%
   - 還款年數(Years):20年

2. 計算月利率(Monthly Interest Rate):
   由於年利率是按年計算的,而還款是每月進行,因此我們需要將年利率轉換為月利率。這可以通過將年利率除以12個月來實現。
   \( 月利率 = \frac{年利率}{12} \)
   \( 月利率 = \frac{3\%}{12} = 0.0025 \)(即0.25%)

3. 計算總還款期數(Total Number of Payments):
   因為小明要在20年內還完貸款,所以我們將還款年數乘以12(一年的月份数)來獲得總還款期數。
   \( 總還款期數 = 20年 \times 12個月/年 = 240期 \)

4. 使用等額本息還款公式計算每月還款金額(Monthly Payment):
   \( P = \frac{r \times PV}{1 - (1 + r)^{-n}} \)
   其中:
   \( P \) 是每月還款金額
   \( r \) 是月利率
   \( PV \) 是本金
   \( n \) 是總還款期數

5. 將已知數值代入公式:
   \( P = \frac{0.0025 \times 16,000,000}{1 - (1 + 0.0025)^{-240}} \)
   計算得到每月還款金額 \( P \)。

6. 計算總還款金額(Total Amount Paid):
   總還款金額是每月還款金額乘以總還款期數。
   \( 總還款金額 = P \times 總還款期數 \)
   \( 總還款金額 = P \times 240 \)

根據這些步驟,我們計算出小明每月需支付約88,735.62台幣,總共需要支付的本金及利息約為21,296,547.76台幣。




2023/10/15

Midjournery 訂閱使用心得及與Leonardo.ai的比較

  最近一個月訂閱了Midjourney ,使用它玩了AI生成圖片。確實有些樂趣在裡面。也去免費使用 Leonardo.ai 試玩了一陣子,兩個AI 生成式出圖工具各有優缺,要先學習給出提示詞(prompt),就可以讓一些沒有繪圖能力的小白,憑著想像力及提示詞還有網路上一些已經訓練好分享出來的AI模型,自由自在發揮。
奇幻風格,Cheese Cake城堡

柴犬自拍,使用101大樓當背景

天竺鼠載墨鏡,海邊日光浴

Midjourney 個人覺得要先學會使用Discord及下指令。自己以前也沒用過Discord ,為了使用Midjourney才下載及申請帳號使用。Midjourney現在已經沒有免費使用,最低每月訂閱也要10美金左右。功能強大,較不適合初學者。



Leonardo.ai 每天有150點的免費額度,很夠用了。介面也比較直覺友善。

直接點Launch APP 就可以使用


作品欣賞:AI 生圖結果是沒有版權






2023/10/09

Apple MacBook 及iMac AI 運算(機器學習)需求規格建議

  最近個人一直在學習及探索AI的應用,也一直想將一堆Open Source 的AI model 落地執竹,但又不想要買桌機插上一張到多張NVidia GPU。上網找資料及評估的結果是,Apple Silicon M2 系列的MacBook 或 iMac 是非常合適的選擇。許多model 打包好可以本地執行的多半支援Apple Silicon M2 晶片。

      問題來了,要買什麼樣的配置規格呢?自己總結了一下,分兩個建議如下:

  • RAM : 24 GB以上,SSD : 1TB 以上
    • 這是給MacBook Air 或 Mac mini / MacBook Pro 最低的建議
    • 7B, 13B 的LLM都可以執行
  • RAM : 64 GB以上,SSD  :  1TB 以上
    • MacBook Pro 取建議這個配置起跳,推上96GB 頂規 13.4萬台幣
    • 7B, 13B 的LLM都可以執行,也比較不吃力
    • Stable Diffusion 可以出圖比較快
  • Mac Studio : RAM 128 GB以上, SSD 2 TB
    • 7B, 13B, 30B, 65B 的LLM都可以執行
    • RAM 192 GB 就可以任何模型都落地,頂規 20.8萬
    • Stable Diffusion 可以快速出圖,也可以同時多出幾張圖
    大家可以試算一下,一張 nVidia RTX 4090 也只有24GB 的RAM。一次給它買三張串接,RAM 也只有 72GB。Windows 主機+三張 RTX 4090也差不多是一台 Mac Studio 192GB RAM 的價錢了,但是耗電量及產生的電費帳單真的會夠你受的。

    至於SSD 空間為何 1T 起跳?因為,不管是LLM或Stable Diffusion 相關的model 每個都是3GB 以上,自己的MacBook Air M2 512GB SSD 空間目前雖然夠用,但長期下去也是很緊。

   如果,你仍堅持使用Windows 筆電,以下微星筆電競筆電可以參考,至於重量及攜帶性就真的無法另人接受了。

MSI微星 Titan GT77 12UHS-012TW
i9-12900HX ∥ 64G ∥ RTX3080 Ti ∥ 8T SSD

     這款筆電配的 RTX 3080Ti 是 16GB,也是可以做中小型LLM運算。

    所以,個人觀點仍是建議,如果有移動需求,直接MacBook Pro 到頂。因為,CPU 和 GPU 共用記憶體。沒有的話,M2 Mac Studio Ultra 192GB配置,這一台可抵8張 RTX 4090,C/P 值破表。不信的話你可以參考以下YouTube。



《M2 Ultra:干翻英伟达!决战AI之巅》


我目前使用的是一台MacBook Air M2 13吋輕薄筆電,這台筆電具備了16GB的RAM和512GB的SSD儲存空間。令人驚訝的是,即使在不插電的情況下,它也能流暢地執行llama 7B和13B這種大型機器學習模型。相較之下,大多數配置了nVidia顯卡的Windows筆電在沒有插電的情況下,往往無法達到這樣的性能表現。

然而,我有一點後悔,那就是當初購買時沒有選擇將RAM加滿到24GB。網上有很多文章和評測都說MacBook Air的16GB RAM已經“非常足夠”,但隨著AI和機器學習日益普及,我認為在Mac上的RAM是“有多少就加多少,多多益善”的。特別是在進行大規模數據處理或模型訓練時,更多的RAM絕對會有所幫助。

不過,我還是要提醒大家,儘管MacBook Air能勉強運行一些較大的模型,但因為它沒有內建風扇,所以在進行高度運算負荷的生成式AI計算時,可能會遇到散熱問題。當溫度達到一定程度,系統會自動降低CPU和GPU的頻率,以避免因過熱而導致硬件損壞或系統當機。因此,如果您是專門從事AI或機器學習的工作,我會更推薦您購買配有風扇的MacBook Pro。

如果您不打算使用筆電,那麼Mac Studio M2會是一個更好的選擇。對於影音創作者來說,其效能已經非常出色,甚至可以說是“過剩”。但對於AI學習和模型微調,它仍然有一些局限性。我個人非常期待下一代的Apple Silicon M3處理器,尤其是如果它能支持192GB或更多的RAM,那麼將會是功耗和性價比非常高的選擇。

最後,我最近去了Studio A體驗了一下不同的Mac機型。令我印象深刻的是,除了硬件規格和價格外,標價牌上還會特別加上一句“機器學習”字樣。這顯然表明,Apple自己也非常清楚,他們的產品不僅僅適用於影音創作,同時也非常適合機器學習和AI開發。

2023/10/04

Bard 新功能圖片及語音辨識都很棒!

  Bard 一直是我拿來和OpenAI ChatGPT 比較的大型語言模型應用。現在它也能辨識圖片,不再只能用文字對話。所以,第一個測試,先來一個Midjourney 生成的天竺鼠圖片。它能正確辨試出來,也知道它戴著太陽眼鏡,坐在沙灘上,體色是棕色。也長的很可愛,背景有山,還有藍色的海水。不錯哦!


接下來,測試輸入文字框中右邊的麥克風,它用來做語音輸入。按下後,說了句"告訴我這圖片中有什麼動物",也是能正確辨識出。

再測一句: "告訴我明天颱風到底會不會來"。也是完全正確,速度也很快!

除了語音辨識沒問題外,它把我問的颱風會不會來的問題,也善用Google 搜尋引擎的優勢,把“2023/10/04" 小犬颱風對台灣的影響新聞資料整理出來,真的是很強!完全不讓 Bing 專美於前,人家可是Google 呢!論搜尋能力,Bing 還是得尊敬一點才是。


2023/10/03

LM Studio 在MacBook Air M2 上執行 LLama 大語言模型

  一般人在現階段想要不在雲端服務下使用大語言AI模型,第一個想到的就是買台PC或筆電,上面裝有nVidia 顯示卡,記憶體還不能太小。現在可以在MacBook Air M2上執行,且不用裝一堆Python 相關套件。
    你只要下載 LM Studio。它有 Windows 和Mac 版本。為了測試我的MacBook Air M2 (16GB RAM) 上是否可以善用GPU,當然是載MacOS 版。 官網: https://lmstudio.ai
下載安裝成功後,啟動畫面:

一開始沒有 AI model ,請先輸入 taiwan llama 來找出台大博士生有特地用中文資料訓練過的,你可以找 13B 的 Taiwan-LLaMa-13b-1.0.Q4_K_M.gguf , 請準備 10 GB 以上硬碟空間,因為光是模型就快 8GB。如果怕跑不動,或跑很慢可以找 7B 這種較小的。
載完就可載入模型,然後開始問它問題,這時你會發現 CPU, GPU 都處於高負載的狀態。在MacBook Air M2 上問問題的 速度還可以接受,比ChatGPT回應再慢一點點。主要是確定可以善用 GPU,也確實跑得動。

但是,問題來了!這只能做簡單的測試及練習。要當Server 運用這個模型是有點力不從心,跑沒幾句對話,就發現筆電底部份發熱了,這台我都用了快十個月了,還沒遇到過。

所以,很認份的再去下載一個7B的 model 。看來13B的模式要用MacBook Pro 64GB 以上的機種來跑。
7B model 跑起來就比較順,可是這model 用中文問,只會用英文回答。看來是載錯了,改用 chinese 7B 關鍵字找到中文相關模型。
執行前,先到右邊去將 Context Length 加大成2倍以上,不然對話沒幾句就出現錯誤了。如下畫面:紅字部份
改動 Context Length 會自動重新載入模型。接下來,就可以好好對話了!



有時還會亂亂答。看來想要落地,還選llama 2 13B的模型比較OK。差的就只是硬體的算力了,不!應該是鈔能力!

才使用 LM Studio 試用 llama 2 7B 模型沒幾天,台灣中研院就釋出以此為基礎的 CKIP-Llama-2-7b-chat model ,這是針對繁體中文再優化,可以參考以下網址:

   https://huggingface.co/ckiplab/CKIP-Llama-2-7b-chat

如果不喜歡 LM Studio 可以建議試試 Text Generation WebUI 。


2023/10/02

ChatGPT 和Bard 推理能力比較-買菜篇

  針對ChatGPT 3.5, GPT-4 和 Bard 比較一些推理計算能力,題目如下:

小明去幫媽媽買菜,媽媽給他150元, 他買了 30 元的蘿蔔,25元的䓤,又買75元的雞腿,賣雞肉的老板送了價值5元的一支雞腳。請問他花了多少錢?

GPT3.5 回: 
小明去幫媽媽買菜,他總共收到150元,然後花了以下的費用:

蘿蔔:30元
䓤:25元
雞腿:75元
賣雞肉的老板送了一支價值5元的雞腳。
總花費 = 30元 + 25元 + 75元 - 5元 = 125元。

所以,小明花了125元。

GPT-4 回答: 
小明購買的物品分別是:

30元的蘿蔔
25元的蔥
75元的雞腿
他一共花了 
30+25+75=130
30+25+75=130 元。

雖然賣雞肉的老板送了價值5元的一支雞腳,但這不影響小明實際花費的金額,所以他一共花了 130 元。

Bard 回答: 
小明買蘿蔔花了30元,買䓤花了25元,買雞腿花了75元,總共花了30+25+75=130元。

賣雞肉的老闆送了一支價值5元的雞腳,因此小明實際花了130-5=125元。

答案是125元。

解析:

小明買蘿蔔、䓤、雞腿的總價為130元。

賣雞肉的老闆送了一支價值5元的雞腳,因此小明實際花了130-5=125元。

因此,小明花了125元。

看來 GPT3.5/Bard 都回答錯誤,GPT-4 是正確,也主動說明5元送的雞腳不算錢。

2023/09/30

Draw Things/Diffusionbee 在 MacBook Air M2上初體驗

  上過AI 課體驗過 Leooardo.ai 和 Midjourney 的 Stable Diffusion 生成圖片魅力之後,就想到這些要免費的有限制使用點數,或是每月付費對荷包很傷。就開始想起有沒有AI 落地方案?就是直接在筆電上進行AI 運算。最後找到 Draw Things  ,確實可以在我的 MacBook Air M2 上執行。載下來也確實可以執行,我的筆電規格如下:

MacBook Air M2 16GB RAM

8 核心 CPU 配備 4 個效能核心與 4 個節能核心
10 核心 GPU
16 核心神經網路引擎
100GB/s 記憶體頻寬

GPU / CPU 使用比率 : CPU 10~20% ,GPU 80% ~ 94%

執行生圖中筆電底部溫度,在冷氣房25度C中,溫溫的。這是放在大腿上沒有隔著褲子時的體感。

Draw Things : 生成一張960x640圖片,只要120秒左右。

Diffusionbee : 
      這也是一款可以下載MacBook Air M2 運用Apple Silicon 晶片的軟體。生成一張512x512圖片,只要50秒左右。

結論:MacBook Air M2 用來落地跑 Stable Diffusion model 生圖是沒問題,也可以善用GPU。重點是速度是差強人意,好處是不用像其它Windows 電競筆電配有Nvidia GPU 重量大到可練重訓。想想,這可是在一台輕薄筆電上就可做到。但是,若你是AI 研究或開發人員,建議使用Mac Studio 配備128GB RAM,或是MacBook Pro 16吋,配置64GB 以上的記憶體。

運用 Draw Things APP 來進行AI 生成圖片,需要先對 Stable Diffusion ControlNet LoRa 三者間有點基本認識:

Stable diffusion、ControlNet 和 LoRa 三者之間的關聯主要體現在以下幾個方面:

技術層面:Stable diffusion 和 ControlNet 都是基於神經網路的圖像生成模型,而 LoRa 是一種低功耗廣域網技術。
應用場景:Stable diffusion 和 ControlNet 可以用於生成各種圖像,而 LoRa 可以用於傳輸圖像數據。
數據傳輸:Stable diffusion 和 ControlNet 生成的圖像數據可以通過 LoRa 進行傳輸。

具體來說,Stable diffusion 和 ControlNet 可以用來生成各種圖像,例如人像、風景、物體等。這些圖像數據可以通過 LoRa 進行傳輸,從而實現圖像的遠距離傳輸。

例如,在智慧城市中,可以使用 Stable diffusion 和 ControlNet 生成城市的實時圖像,然後通過 LoRa 將這些圖像數據傳輸到雲端。雲端可以對圖像數據進行分析,從而為城市管理提供支持。

此外,Stable diffusion 和 ControlNet 也可以用來生成虛擬圖像,例如遊戲中的地圖、場景等。這些虛擬圖像數據也可以通過 LoRa 進行傳輸,從而實現虛擬世界中的遠距離互動。


Stable diffusion、ControlNet 和 LoRa 三者結合應用的示例:

智慧城市:在智慧城市中,可以使用 Stable diffusion 和 ControlNet 生成城市的實時圖像,然後通過 LoRa 將這些圖像數據傳輸到雲端。雲端可以對圖像數據進行分析,從而為城市管理提供支持,例如交通流量監控、環境監測等。
工業物聯網:在工業物聯網中,可以使用 Stable diffusion 和 ControlNet 生成工廠的虛擬模型,然後通過 LoRa 將這些模型數據傳輸到雲端。雲端可以對模型數據進行分析,從而為工廠管理提供支持,例如故障診斷、生產優化等。
娛樂:在娛樂領域,可以使用 Stable diffusion 和 ControlNet 生成虛擬遊戲場景,然後通過 LoRa 將這些場景數據傳輸到用戶的設備。用戶可以通過設備在虛擬世界中進行互動,從而獲得更身臨其境的遊戲體驗。

總體而言,Stable diffusion、ControlNet 和 LoRa 三者結合可以為不同領域的應用提供新的解決方案。

以下是一些具體的應用場景:

智慧城市:
    使用 Stable diffusion 和 ControlNet 生成城市的實時圖像,然後通過 LoRa 將這些圖像數據傳輸到雲端,從而實現城市管理中的交通流量監控、環境監測等。
    使用 Stable diffusion 和 ControlNet 生成城市的虛擬模型,然後通過 LoRa 將這些模型數據傳輸到雲端,從而實現城市管理中的故障診斷、生產優化等。
工業物聯網:
    使用 Stable diffusion 和 ControlNet 生成工廠的虛擬模型,然後通過 LoRa 將這些模型數據傳輸到雲端,從而實現工業物聯網中的故障診斷、生產優化等。
    使用 Stable diffusion 和 ControlNet 生成工廠的實時圖像,然後通過 LoRa 將這些圖像數據傳輸到雲端,從而實現工業物聯網中的質量檢測、安全監控等。
娛樂:
    使用 Stable diffusion 和 ControlNet 生成虛擬遊戲場景,然後通過 LoRa 將這些場景數據傳輸到用戶的設備,從而實現虛擬遊戲中的遠距離互動。
    使用 Stable diffusion 和 ControlNet 生成虛擬人物,然後通過 LoRa 將這些人物數據傳輸到用戶的設備,從而實現虛擬交互中的更身臨其境的體驗。

以上只是一些示例,Stable diffusion、ControlNet 和 LoRa 三者結合的應用場景還可以有很多。隨著技術的發展,我們可以期待看到更多創新的應用出現。



2023/09/23

Google逐步蒸餾AI技術,小資料小模型也能打敗LLM的個人看法

  Google發展了一種AI新技術,名為「逐步蒸餾」,以更少的資料訓練專用的小型模型,但效能卻能優於其他方法。

- 發展背景
  - 部署大型語言模型需要大量GPU記憶體。
  - 小型專用模型通常有兩種訓練方法:微調和蒸餾。
  - 蒸餾是將大型模型的知識轉移至小型模型,效能可接近或超越大型模型。

- 逐步蒸餾
  - 是一種簡單機制,使用較少的訓練資料訓練小型模型。
  - 小型模型的效能可能優於少樣本提示語言模型。
  - 主要從大型語言模型擷取自然語言解釋,用於更有效地訓練小型模型。

- 實驗結果
  - 使用逐步蒸餾法的T5模型在多個NLP任務中均超越了其他方法。
  - 2.2億參數的T5模型在e-SNLI資料集上甚至超越了5,400億參數的PaLM模型。
  - 7.7億參數的T5模型在ANLI資料集使用80%資料就超越了PaLM模型。

看來,若可以有小模型,很多人想要落地運用模型就很方便,特別是那些想訓練出專用模型,但訓練資料不方便放到雲端,屬於機密性質的機構。這也可能導致OpenAI 及微軟的AI收入沒有那麼樂觀,反而是落地所需的AI GPU TPU 等硬體需求大增。
另外,語言模型的發展看來是要每幾個月就有大進展,也不用急著去導入,只要先觀察及使用後再來評估對自己企業是否有幫助即可,因為光是一邊評估當紅的技術,就發現又有另一個新技術冒出來!它們只是工具,怎麼運用工具對企業產生效益才是重點。

2023/09/19

GPT-3.5-Turbo 還在試用,GPT-3.5-Turbo-instruct model 就來了

  AI model 的進步真的是計畫趕不上變代。當我們還花不起大錢使用GPT-4,先考慮及評估GPT-3.5-Turbo model 時,GPT-3.5-Turbo-instruct 就推出了。

GPT-3.5-Turbo-instruct 是基於 GPT-3.5-Turbo 模型的一種變體,它使用了指示學習(instruction learning)技術。指示學習是一種機器學習技術,它允許模型根據人類的指示進行訓練。在 GPT-3.5-Turbo-instruct 的情況下,指示是用自然語言編寫的。

GPT-3.5-Turbo-instruct 的優點是它可以更有效地學習特定任務。例如,可以使用指示來告訴模型如何生成創意內容或翻譯語言。

GPT-3.5-Turbo-instruct 的缺點是它需要大量的人工標記數據。指示需要由人類編寫和驗證,這可能是一個耗時和昂貴的過程。

GPT-3.5-Turbo-instruct 和 GPT-3.5-Turbo 都是強大的大型語言模型,具有不同的優缺點。用戶需要根據自己的需求選擇合適的模型。

如果您需要一個可以更有效地學習特定任務的模型,GPT-3.5-Turbo-instruct 是一個不錯的選擇。但是,您需要準備好投入大量的人工標記數據。

如果您不需要一個可以學習特定任務的模型,GPT-3.5-Turbo 是一個不錯的選擇。它不需要大量的人工標記數據,並且可以用於各種任務。

以目前各行各業的運用來看,多半會是特定任務的運用。所以GPT-3.5-Turbo-instruct model 看來會在未來較受歡迎,特別是有法規管制的行業。