跳到主要內容

一個拒絕回到伊甸園的靈魂,如何成為傳說中的惡魔

蔡依林在臺北大巨蛋的演唱會落幕了,但舞台上留下的餘波,似乎比音樂本身還要來得悠長。

巨大的蛇、公牛、第三隻眼,這些強烈的視覺符號在網路上引發了熱烈討論。有人感到不安,將這些意象直接對應為神祕組織的儀式;也有不少聲音點名其中反覆出現的名字——「莉莉絲(Lilith)」,並迅速替她貼上「惡魔」與「邪惡」的標籤。

然而,當我們急著在未知的事物上畫下紅線時,或許可以先停下來問一問:我們所恐懼的對象,究竟是誰?


若願意撥開層層堆疊的陰謀論迷霧,回到這個角色最原始的故事起點,便會發現,所謂的「邪惡」,多半建立在對故事背景的陌生,以及對「異己」的想像之上。


被遺忘的第一個女人


在一般大眾熟悉的聖經正典中,夏娃是人類的第一個女人,取自亞當的肋骨;但在中世紀流傳的猶太民間文學中,特別是便西拉的字母(Alphabet of Ben Sira)這份文獻裡,記載了另一個截然不同的版本。

在那裡,莉莉絲才是最早被創造的女性。


故事的開端並不驚悚,甚至帶著某種質樸的平等感。上帝用塵土造了亞當,也以完全相同的材料、同樣的方式造了莉莉絲。兩人共同生活於伊甸園,起初並沒有誘惑,也沒有墮落。

後來出現的衝突,並非源自什麼毀天滅地的罪行,而是發生在一個極為具體、甚至連現代人聽來都感到熟悉的層面:親密關係中的權力拉扯。


亞當堅持自己在關係中必須佔據主導位置,要在上位;莉莉絲則拒絕了。她的理由非常簡單,卻擲地有聲——既然兩人來自同樣的塵土,擁有相同的創造源頭,就不存在誰天生尊貴、誰天生該順從的道理。


離開,是她最後的選擇


這個分歧最終沒有被化解。亞當無法接受平等的請求,而莉莉絲也未打算讓步。

故事的轉折隨之而來,也成了莉莉絲命運的分水嶺。她唸出了上帝的隱名,自行離開了伊甸園。這個細節很容易被忽略,但其實相當關鍵:她並非因為犯錯而遭到驅逐,而是在無法忍受不對等關係的情況下,選擇了主動離去。


隨後,亞當向上帝求助。上帝派遣三位天使追趕莉莉絲,在紅海邊將她攔下。天使帶來的不是和解的方案,而是最後的通牒:回到亞當身邊,回到原本的位置。除此之外,他們還開出了極其殘酷的代價作為威脅——若她拒絕回去,她將每日失去一百個孩子。

這是一個母親所能想像的最可怕的詛咒。但在故事裡,莉莉絲做出了令人震驚的選擇。

她拒絕回頭。


神話的改寫:惡魔是如何誕生的?


正是從她說出「不」的那一刻起,她在傳說中的位置發生了根本性的質變。

在後世漫長的流傳過程中,敘述的重心逐漸偏移。原先衝突的緣由——關於平等的爭取——不再被強調;威脅是如何發生的細節,也被簡化處理。取而代之的,是對「結果」的集中特寫。


因為她不回頭,所以她必須是錯的。於是,莉莉絲不再被記憶為「第一個女人」,而被塑造成會殺嬰的惡魔、會在夜間誘惑男人的妖女,並被視為後來各種女巫形象的源頭。

歷史的筆法在此顯得格外殘酷:她要求平等,被後人解釋為忌妒;她離開伊甸園,被詮釋為背叛;她拒絕在威脅下妥協,被描繪為投向邪惡;而她在懲罰之中的痛苦反應,則被倒果為因,用來證成她本質上的危險性。

原本清楚的事件順序被壓縮、被省略,最後只留下一個高度定型、方便記憶的結論:莉莉絲是惡魔。


理解故事,是為了看穿標籤


從故事的形成過程來看,莉莉絲並非因為某個具體的惡行而成為惡魔,她的轉變,更多來自敘述方式的選擇。一個拒絕回到既定位置的女性角色,最終被固定為承載恐懼與後果的象徵。

在這樣的脈絡下,當莉莉絲作為舞台意象出現時,她本身並不必然指向任何宗教立場或隱含訊息。她更像是一個在長期流傳中被不斷簡化、反覆使用的符號,其意義早已脫離原始故事的細節。


這也是為什麼,當我們再次在流行文化中看見這個名字,會如此輕易地感到焦慮。不是因為這個符號本身帶有法力,而是因為千百年來留下的版本,早已替她做好了結論。

所以,問題或許不在於某場演唱會用了什麼意象,也不在於任何人「想表達什麼」。真正值得花時間思考的,是在看到一個被標記為「惡魔」的形象時,我們有沒有意願回頭看看:這個說法是怎麼被寫出來的?又有哪些東西在過程中被省略了?


如果把故事從頭看一遍,會發現莉莉絲真正做過的事情其實很有限。她沒有殺人,也沒有設計陷害誰。她只是在一個關鍵的地方,為了捍衛自己的尊嚴,說了一聲「不」。


留言

這個網誌中的熱門文章

除了宣示價值,我們還有什麼?—人工智慧基本法的未竟之業

  除了宣示價值,還有什麼?—人工智慧基本法的未竟之業 隨著人工智慧基本法的正式推進,台灣在數位法制的版圖上終於立下了一根顯著的標竿。在制度符號學(Institutional Semiotics)意義上,無疑傳遞了清晰的訊號:國家機器正式承認,「人工智慧(AI)」已不再僅僅是實驗室裡的技術參數,也不只是產業界追求效率的經濟工具,而是必須被納入公共治理架構、甚至牽動既有權責配置與法秩序調整的核心。 此等立法選擇,平心而論,不令人意外,亦不特別激進。若回顧台灣過去二十年來面對數位匯流、個資保護甚至金融科技(FinTech)等新興議題的軌跡,會發現這相當符合台灣立法者的一貫邏輯——先確立抽象的價值與方向,再透過授權條款,期待行政機關逐步補齊制度細節。這是一種「宣示先行,實質後補」的立法慣性,旨在於變動劇烈的技術浪潮中,為行政機關保留最大的裁量彈性;然而,這種彈性的代價,往往是將「法律可預測性」(Legal Predictability)往後延,並將龐大的判斷成本轉嫁至市場與社會端。 真正的問題並不在於立法的時機或形式,而在於這種在傳統行政領域行之有效的「摸著石頭過河」策略,在面對人工智慧這種演化速度極快、滲透力極強的「通用目的技術」(General Purpose Technology, GPT)時,是否仍能如預期般運作?當立法者再次將難題拋回社會,要求行為主體「先理解原則,再自行判斷後果」時,我們是否正在製造一場巨大的監管迷霧? 更精確地說,這場迷霧不只是「不知道怎麼守法」,而是包含了至少三層結構性的不確定:誰來說清楚?什麼時候說清楚?以及要用什麼形式說清楚?這三件事如果沒有被制度化,原則就會變成口號,而口號最終只能換來無盡的等待。 歐盟經驗的鏡像反射:確定性的代價與價值 在當前的公共討論中,台灣的人工智慧基本法常被置於國際比較的脈絡下檢視,其中最顯著的參照座標,便是歐盟甫通過的人工智慧法案(EU AI Act)。主流論述將歐盟視為「監管先行者」的典範,認為其作法「走得比較前面」,因此自然成為台灣借鏡的對象。然而,若我們仔細剝開歐盟的制度洋蔥,會發現一個在台灣經常被忽略的事實:歐盟目前面臨的治理困境,並非來自「是否立法」,而是來自立法之後,行為主體究竟該如何將這些規範翻譯成內部流程、產品決策與責任配置。 歐盟採取的是一種近乎「產品安全法規」的邏輯。其制度之所以能...

當法律跑在能力前面,執法就變成賭局

When law outruns capability, enforcement becomes a gamble. 歐盟最新提出的「數位綜合方案」,將原本預計自 2026 年起陸續落地的 AI Act 高風險義務整體延後,並對 GDPR 的若干適用標準作出調整。這一系列時間表與技術條文的修改;從法制運作角度看,其實是歐盟試圖重新修正過去幾年高度前傾的監管節奏。核心訊息很直接: 當規範在行政能力、標準體系與產業準備都尚未到位時提前生效,制度本身便會成為新的風險來源,同時對 法律確定性(Rechtssicherheit)與可執行性(Vollzugstauglichkeit)產生損害。 過去十年,歐盟在數位領域採取的是一套高度主動的立法模式:先以框架性規範設定邊界,再透過技術標準、指引與執法實務慢慢填補細節。GDPR、DMA、DSA 乃至 AI Act 無不如此。這樣的作法在政治上具有明顯的宣示效果,也強化了歐盟作為「規則輸出者」的角色。但在 AI 與資料治理領域,這種先立架構、後補能力的路線,逐步暴露出其結構性限制: Regelungsdichte(規範密度)可以很高,Vollzugskapazität(實際執行能力)卻未必能跟上。 AI Act 的高風險義務便是一個典型例子。法條要求涵蓋技術文件完整性、訓練資料可追溯性、模型行為監測機制、風險管理流程等多重層面,每一項都假設存在一套成熟的標準體系與行政審查機制。然而,相關技術標準仍在制定過程中,各國主管機關的準備度明顯不一,企業端也尚未形成穩定的 best practice。在這樣的條件下,法規若在原定時程強行生效,實務上極易出現「義務已存在,但合格標準與審查方式未臻明確」的狀態。 對企業而言,這意味著法規遵循被迫建立在猜測之上:不知道做到何種程度才足以被認定為合規,卻必須提前調整內部結構與資源配置。對主管機關而言,則是在執法時缺乏穩定的判準,不同成員國之間的差異難以避免。這種情形直接侵蝕了 Rechtssicherheit,使法律本身成為一種額外的不確定性,而不是降低不確定性的工具。從這個角度看,延後義務並非削弱監管,而是試圖讓規範重新落在與現實能力大致相稱的水位,回到 Verhältnismäßigkeit(比例原則)可接受的範圍之內。 GDPR 的調整呈現出相同的邏輯,只是焦點從 AI 行為,轉移到資...

The price of waiting: what Taiwan’s AI law reveals about regulatory uncertainty

As Taiwan advances its proposed Artificial Intelligence Basic Act, the debate has largely focused on familiar themes: ethics, principles, and the need for “responsible AI”. These questions matter. But they are not the most consequential ones. The more important issue is economic rather than moral. It concerns how law structures expectations, how uncertainty is distributed, and how delay becomes a rational response when judgement is deferred. Taiwan’s AI legislation offers a revealing case study in the political economy of regulatory uncertainty — and in the costs of asking markets to decide first. At a symbolic level, the Basic Act marks a clear shift. Artificial intelligence is no longer treated merely as a technical input or an industrial productivity tool, but as an object of public governance. Its deployment is recognised as having implications for legal responsibility, administrative authority and decision-making frameworks. Yet symbol and structure are not the same. The law’s...