
Builder.ai,一家曾被譽為估值15億美元、接近獨角獸地位的英國初創公司,承諾通過人工智能(AI)革新應用程式開發。其於2025年5月申請破產的戲劇性崩潰,引發了對「AI洗白」、財務管理不善以及生成式AI(GenAI)應用程式開發市場現況的討論。
本月我曾親身跟一名前Builder.ai員工交談了解。綜合我和他的見解,探討Builder.ai的背景、其失敗原因、AI洗白後的GenAI市場現況,以及與1990年代末互聯網泡沫的比較,揭示對初創公司、投資者及更廣泛科技生態系統的關鍵教訓。
Builder.ai是什麼?
Builder.ai於2016年由Sachin Dev Duggal創立,最初名為Engineer.ai,旨在通過人工智能驅動的無代碼/低代碼平台普及應用程式和網站開發。該公司宣稱其平台讓非技術用戶能像「點披薩一樣簡單」地創建自訂應用程式,其旗艦AI助手「Natasha」被宣傳為能利用模組化代碼庫和自動化技術自主完成應用程式開發。總部位於倫敦,並在印度有重要運營,Builder.ai從微軟、卡達投資局和軟銀等知名投資者籌集了超過4.5億美元資金,達到接近獨角獸的地位。
根據這位前Builder.ai員工,該平台確實能以 AI開發應用程式,特別是針對較簡單的應力。然而,複雜項目例如結合不同第三方應用時,則需要人手干預,印度工程師協助進行整合和自訂工作。
Builder.ai為何失敗?
Builder.ai於2025年5月破產,前Builder.ai員工認為是營運、財務和策略失誤的結果,而非其AI技術本身的失敗。以下是其崩潰的主要原因,結合前員工的見解和公開報導。
- AI洗白與能力誤導
Builder.ai大力宣傳其平台為AI驅動,但2019年《華爾街日報》報導揭露其高度依賴印度的人工工程師,約700名位於諾伊達和班加羅爾的員工偽裝成AI回應,以維持自動化的假象。內部文件顯示,高管指示員工隱藏人工參與,在投資者簡報中強調「專有AI」。前員工確認平台能開發應用程式,但複雜整合需人工工程師,這與外界所期待的「無須懂編程、AI為你編程」有所分別,侵蝕了客戶和投資者的信任。2025年《Pragmatic Engineer》文章澄清,Builder.ai使用Claude等大型語言模型(LLM)進行代碼生成,但誇大了自動化能力,加劇了AI洗白爭議。 - 財務管理不善及收入誇大
前員工強調,Builder.ai的失敗主要源於商業和財務運營,而非其AI產品。根據外界報導,公司與印度公司VerSe Innovation進行「循環交易」,通過交換未提供服務的發票,誇大收入高達300%。例如,2024年收入報稱2.2億美元,經審計後修正為5500萬美元,2023年數據則從1.8億美元降至4500萬美元,這導致投資者信心喪失。2025年《Business Standard》報導所述,當債權人Viola Credit扣押3700萬美元時,公司僅剩500萬美元受限資金。對亞馬遜(8500萬美元)和微軟(3000萬美元)的高額債務進一步加劇財務壓力。 - 產品質量差及客戶體驗不佳
儘管具備應用程式開發能力,Builder.ai的應用程式常有錯誤且無法自訂,需手動修復,無法滿足企業對可擴展性或安全性的需求。Trustpilot上的評論突顯了計費問題、項目延遲或未交付及客戶支援差等問題,約25%的評論為一星。前員工承認,複雜應用程式需人工工程師整合,有時導致延遲或質量問題。法律糾紛和退款要求進一步損害了公司聲譽。 - 高供應商鎖定風險
Builder.ai的應用程式在其專有基礎設施上構建和託管,造成顯著的供應商鎖定。當公司倒閉時,非技術型客戶因無法訪問源代碼(source code)而難以遷移或維護應用程式,如2025年Reddit討論串所述,這凸顯了依賴單一供應商且缺乏透明代碼訪問的風險。 - 領導與治理失敗
創始人Sachin Dev Duggal自稱「首席魔法師」,因可疑財務操作及2024年印度一宗洗錢調查而受到審查。他於2025年2月辭去首席執行官職務,由Manpreet Ratia接替,但後者未能扭轉財務困境。董事會未能進行徹底的盡職調查,公司過度擴張至東南亞和中東市場,增加了資金消耗,加劇財務壓力,如2025年《TechSpot》報導。 - 市場競爭與缺乏差異化
Builder.ai面臨來自Bubble、Adalo、OutSystems和微軟Power Apps等成熟無代碼/低代碼平台的激烈競爭,這些平台提供更好的穩定性和支援,如2025年《The Next Web》文章所述。 - 過度依賴AI熱潮與FOMO投資
Builder.ai利用ChatGPT後的AI熱潮,吸引了受「恐錯過」(FOMO)驅動的投資者。微軟等投資者的不足盡職調查,未能發現誇大的能力和財務違規行為,導致公司崩潰時蒙受損失,如2025年《TechCrunch》報導。
Builder.ai後的GenAI市場現況
Builder.ai的失敗未使GenAI應用程式開發市場脫軌,但改變了其發展軌跡,強調透明度和可持續性。以下是截至2025年6月的市場現況。
- 強勁增長與投資
GenAI市場持續蓬勃發展,全球私人投資從2022年的30億美元增至2023年的250億美元,預計2024年達400億美元,至2027年達1500億美元(CB Insights)。麥肯錫2024年全球調查顯示,71%的企業在至少一個功能中使用GenAI,軟件工程是主要用例。GitHub Copilot、AWS CodeWhisperer和Tabnine等工具加速編碼、原型設計和UI設計,為零售業增加3100億美元的年度價值。 - AI洗白的教訓
Builder.ai被揭露為AI洗白,使企業和投資者對AI與人工角色的透明度要求更高。其誇大的自動化聲稱促使市場轉向結合AI與人工監督的平台,如OutSystems。2025年VentureBeat調查顯示,60%的科技高管認為超過半數AI初創公司誇大能力,突顯信任問題。 - 挑戰與風險
2025年S&P Global報告指出,42%的AI項目於2025年被取消,較2024年的17%上升,原因包括高成本、數據隱私風險和價值不明確。Builder.ai的8500萬美元AWS債務反映了這些成本挑戰。數據質量差和治理不足阻礙了80%的AI項目,需穩健框架如Informatica的IDMC。Builder.ai客戶的供應商鎖定問題推動了對開源模型(例如Llama 3.1)需求。 - 競爭生態系統
GenAI應用程式開發市場由基礎設施提供商(Nvidia)、模型開發者(OpenAI、Google)和應用平台(Bubble、Adalo)支持。與Builder.ai不同,這些參與者提供透明解決方案。像GPT-4o-mini這樣的小型模型降低計算成本,與Builder.ai的資源密集型做法相反。市場集中有利於巨頭,邊緣化無差異化的初創公司。 - 未來機遇
代理型AI(如IBM watsonx.ai)正獲得關注,承諾可靠的自動化,與Builder.ai的偽AI不同。以人為本的應用(如直觀UI設計)正擴大GenAI的吸引力。技能提升計劃應對工作流失風險,至2028年,44%的技能將受影響(麥肯錫)。 - 監管與倫理轉變
Builder.ai的AI洗白加劇了對監管的要求,歐盟《AI法案》(2024年)和中國AI法規旨在遏制誤導聲稱。LLM計算需求的環境問題推動企業採用節能模型,這是Builder.ai忽略的因素。
AI洗白與互聯網泡沫的比較
互聯網泡沫(1995–2001年)見證了對互聯網公司的投機投資,許多公司缺乏可行模式,導致2002年市值損失5萬億美元。當前的AI洗白,以Builder.ai為例,與這一時期有驚人的相似之處。
為何AI洗白普遍
AI洗白普遍的原因包括:
- 炒作:ChatGPT的成功推動AI的15.6–25.6萬億美元潛力(麥肯錫),促使公司如Builder.ai以Natasha標榜AI驅動產品。
- 寬鬆定義:AI的廣泛範圍允許將基本技術標榜為AI,與受管制行業不同。
- FOMO:投資者於2023年向AI投入250億美元,忽略Builder.ai的2.2億美元收入誇大聲稱。
- 客戶需求:76%的企業計劃於2025年採用AI(Gartner),迫使公司宣稱AI能力。
- 競爭:Builder.ai誇大AI以與Bubble競爭,反映市場飽和。
- 監管薄弱:新興AI法規使公司如Builder.ai能大膽聲稱而未受即時懲罰。
與互聯網泡沫的共通點
- 誇大承諾:Pets.com(8250萬美元,2000年失敗)承諾互聯網革命,Builder.ai則宣傳AI應用程式開發,實際依賴人工。
- 投機投資:Webvan無盈利卻籌3.75億美元,類似Builder.ai的4.5億美元FOMO投資。
- 不可持續模式:Boo.com的1.35億美元網站失敗,與Builder.ai的8500萬美元AWS債務和循環交易相呼應。
- 市場飽和:1990年代多個寵物電商網站,類似AI初創公司聲稱相似的GenAI能力。
- 易受騙性:公眾對互聯網的信念與對AI的樂觀相似,使Builder.ai的假象得以維持。
- 市場修正:2001年納斯達克崩潰(2004年僅48%存活)與Builder.ai的2025年破產一致,預示AI小規模修正(2025年42% AI項目失敗)。
差異
- 技術成熟度:1990年代互聯網新興,2025年AI則基於成熟ML和計算,減少AI洗白的規模。
- 監管:互聯網公司幾無監管,AI則面臨新法規(如《AI法案》),可能更快遏制洗白。
- 經濟:互聯網泡沫引發衰退,AI市場則在韌性科技經濟中,減少如Builder.ai失敗的系統性風險。
共同教訓
- 盡職調查:Builder.ai的循環交易和Pets.com的物流失敗強調審查必要性。
- 透明度:誠實AI聲稱(如亞馬遜的存活)與Builder.ai的假象相反,建立信任。
- 可持續性:盈利模式比炒作持久,如Builder.ai的3700萬美元扣押和Webvan崩潰所示。
- 修正促創新:亞馬遜和Google度過互聯網泡沫,OpenAI和Google可能在AI修正後蓬勃發展。
結論
Builder.ai的興衰概括了AI洗白和財務管理不善在GenAI應用程式開發市場中的危險。雖然其平台能開發應用程式,如前員工確認,但對複雜任務的人工依賴和誇大的AI能力導致信任喪失。公司破產由收入誇大、高額債務和治理不善驅動,而非AI產品失敗。GenAI市場依然強勁,2024年預計投資400億美元,但Builder.ai的崩潰推動了透明度和可持續性的需求。與互聯網泡沫的相似之處突顯了炒作投資和不可持續模式的風險,但AI市場的成熟性暗示更具韌性的未來。對初創公司和投資者而言,Builder.ai的失敗是一個警示:創新需實質,而非僅靠熱門術語。