<<深偽技術於虛擬戀人詐騙的應用與道德風險研究>>
[Applications and Ethical Risks of Deepfake Technology in Virtual Romance Scams]
一、摘要
隨著生成式AI和深偽 (Deepfake )技術的快速發展,詐騙集團已開始運用這些新興工具創造「虛擬戀人 」來誘騙受害者。本研究探討深偽技術與AI聊天機器人如何共同營造虛擬戀人 形象,以建立情感連結並實施詐騙;分析為何受害者往往相信虛擬戀人的真實性;以及寂寞與認知偏誤等心理因素在其中的作用。研究主要透過文獻回顧與實際案例分析,整合心理學、資訊安全與倫理學觀點,並提出預防及辨識詐騙的建議。研究問題包括:1) 深偽技術與AI聊天機器人如何協同創造虛擬戀人 並建立情感連結?2) 受害者為何容易相信虛擬戀人 的真實性?3) 孤獨感、渴望被愛與認知偏誤等心理因素如何影響受害者的判斷?
預期貢獻涵蓋:建立「虛擬戀人詐騙風險分析模型」,協助社群平台與交友軟體篩選可疑用戶;提升大眾對虛擬戀人詐騙及深偽風險的認知,以供防詐教育和數位素養訓練使用;以及為AI與深偽技術未來應用訂定「數位倫理 框架」,促進開發者反思科技與人性界限。研究發現,透過深偽產生的逼真視訊與影像,加上AI對話程式撰寫的情話與聊天內容,使詐騙者能創造極具說服力的虛擬戀人 形象,受害者則因孤獨需求與心理偏誤而易陷其中。最後根據理論與案例分析,提出偵測與防範策略,以及對科技倫理的反思建議。
關鍵詞 :
深偽技術(Deepfake Technology)、虛擬戀人(Virtual Lover)、愛情詐騙(Romance Scam)、生成式AI(Generative AI)、認知偏誤(Cognitive Bias)、數位倫理 (Digital Ethics)、社交工程(Social Engineering)、數位素養(Digital Literacy)
二、引言
網路戀愛詐騙已成為全球日益嚴重的數位犯罪形式之一。詐騙集團常利用交友平台或社交媒體,假扮理想對象與受害者建立情感關係,再趁機詐取金錢。近年來,生成式AI和深偽技術的成熟,使得虛擬影像與語音的真實度大幅提升,為愛情詐騙開啟新局面。受害者可能透過視訊通話或社群媒體與「虛擬戀人 」互動,難以辨識對方真偽;背後涉案者往往運用AI聊天機器人撰寫對話,以及AI換臉、變聲等技術,創造出近似真人的假象,使詐騙的說服力與規模都顯著增強。台灣方面,政府統計顯示2022年詐騙案件達29,700件,其中文交友相關的感情詐騙案件佔整體詐欺案件的3.8%,多數受害者為年輕女性。在AI技術滲透的趨勢下,此類事件可能更加頻繁。
VIDEO
基於此,本研究聚焦以下研究問題:
RQ1. 深偽技術與AI聊天機器人如何協同創造虛擬戀人,並建立與受害者的情感連結?
RQ2. 受害者為何容易相信這些虛擬戀人的真實性?
RQ3. 孤獨感、渴望被愛、情感依附和認知偏誤等心理因素,如何影響受害者的判斷與行為?
本研究的預期貢獻包括:透過跨領域分析提出「虛擬戀人詐騙風險分析模型」,以幫助社群平台和交友軟體對潛在詐騙案例進行安全篩選;增進大眾對於虛擬戀人 詐騙及深偽 風險的認知,並將研究成果融入防詐教材與數位素養訓練;最後,從倫理角度提出針對AI和深偽技術未來應用的「數位道德框架」,促使科技開發者與使用者共同反思科技與人性之界限。本文後續依序介紹背景與動機、理論基礎、方法論、案例分析、討論,以及結論與建議等章節,以綜合回應上述研究問題並實現預期貢獻。
三、研究背景與動機
隨著網路與社群媒體的普及,網路交友與線上戀愛成為常態,但也滋生了各種詐騙模式。感情詐騙主要透過虛構身份與受害者建立信任關係,再以種種理由索取金錢。近年來,生成式AI(Generative AI)與深偽(Deepfake )技術的突飛猛進,讓「眼見未必為憑」(seeing is not believing)成為可能。深偽 技術可從既有照片或影片,產生極度擬真的偽造內容;AI聊天機器人則能自動撰寫與應答交互的文字,幾可亂真地模擬真人互動
。趨勢科技指出,隨著生成式AI快速發展,詐騙集團紛紛利用Deepfake換臉、變聲等手段,模仿親友或名人,提高犯罪效率。
全球觀察發現,浪漫詐騙案件量正顯著增加:世界經濟論壇報告指出,2019至2020年間網路深偽內容激增900% ,專家預測至2026年網路大多數內容將由AI生成
。另有報導提到,AI技術助力下,2022年某地情人節前夕出現多起利用生成式AI進行的詐騙案例,包括運用Deepfake進行換臉變聲等手法。此外,英國艾倫圖靈研究所報告指出,詐騙者開始利用生成式AI批量製造帶有假影像與虛構個人史的合成角色,並自動化大規模發送訊息,以高精度瞄準脆弱受害者。臺灣雖未見對應完整統計,但根據警政署數據顯示,2022年台灣詐騙案件中已有近3.8%與網路交友相關,顯見網路戀愛詐騙已是台灣社會不可忽視的問題。尤其近年亦傳出多起與AI深偽技術相關的案例,如粉絲被冒用偶像照片進行愛情詐騙。因此,本研究旨在深入分析深偽與AI聊天機器人等新技術在虛擬戀人 詐騙中的角色,找出詐騙流程與心理機制,並針對台灣現況提供對策建議,以填補學術與實務上的空缺。
四、理論基礎
本研究跨足心理學、資訊安全與倫理學領域,探討技術與人性的交互。心理學理論部分,人類天性中存在尋求歸屬與愛的需求,孤獨感和被愛渴望使人對情感連結極度敏感。心理學家指出,孤獨者往往尋求虛擬關係以滿足社交需求,這種片面情感關係會模糊真實與虛構的界線,增加被詐騙的風險。例如,某心理學報告強調「孤獨和渴望連結使人更易受操縱」
。此外,認知心理學提示真誠偏誤,即人們傾向相信對方誠實,尤其對自我投入情感、呈現符合期待的人物容易放鬆警戒。受害者常對所謂「天作之合」心存浪漫想像,具有浪漫理想化的傾向,對愛情詐騙特別容易上當的文獻回顧發現,受害者往往具有較高的情感理想化、衝動性或沉迷風險,這些特質會使其低估警訊、過度投入,進而落入詐騙陷阱。再者,認知偏誤如確認偏誤(只相信支持已立場的資訊)、承諾升高偏誤(事後傾向投入更多以合理化既有投入)等,皆可能讓受害者忽略矛盾證據而深陷愛河幻覺。綜合而言,孤獨與人際需求的驅動,加上真誠偏誤與浪漫理想化,使受害者在遇到「符合期待的理想對象」時,往往會無條件信任對方,為詐騙者的欺騙提供了突破口。
4.1 資訊安全理論方面
深偽 技術與AI聊天機器人的結合可視為社會工程的延伸。詐騙者利用AI生成個人化內容,使受害者難以用傳統方式驗證身分。例如,利用AI生成的虛擬面孔與背景故事,可以輕易通過反向影像搜尋等偵測機制。在這個情境下,信任機制需重新建構:Wired報導強調,浪漫詐騙「剝削受害者對孤獨感的利用」,使詐騙者「年年詐取數億美元」。同時,AI聊天機器人在詐騙劇本中扮演輔助角色:它可自動撰寫語法正確、內容連貫的情話或求偶訊息,雖然目前仍需人類針對語意進行微調,但已大幅降低詐騙者的人力成本。綜觀理論基礎,數位技術固然增加詐騙場域的複雜度,但其本質仍脫離不了「信任建立-操控需求-經濟勒索」的騙局邏輯;因此,本研究亦從社交工程原理視角檢視技術手段如何融入詐騙流程,使得受害者在情感驅動下易於放鬆戒心。
4.2 倫理學基礎方面
本研究關注深偽 與AI技術的倫理邊界。UNESCO《人工智慧倫理宣言》指出,人權與尊嚴保護是AI倫理的基石,強調人工智慧系統的透明度、公平性與人類監督
。在虛擬戀人 詐騙情境下,深偽技術故意偽造身份、侵犯隱私與誠實原則,對受害者造成情感與心理的重大侵害。資安領域亦強調,科技發展必須謹慎「不對人造成傷害」(Do No Harm)的倫理原則。換言之,開發和使用深偽、AI聊天等技術的人,應事先思量其可能的負面影響並防範。因應此,本研究從數位倫理 角度出發,嘗試在結論中提出相應框架建議,鼓勵研發者與平台業者共同制定保護機制,例如揭露AI合成內容、強化使用者同意機制、以及在技術開發初期即納入風險評估。
五、方法論
本研究採用跨領域的文獻與案例分析方法。首先,蒐集心理學、資安與倫理學領域相關研究與新聞報導,進行質性文獻回顧,以理解浪漫詐騙的最新發展與技術應用;其次,彙編近期具代表性的真實案例,包括國際層面如AI「布萊德·彼特」戀愛詐騙與亞洲區多國詐騙集團事件,以及台灣在地警政單位公開的案例與宣導影片,進行剖析;最後,結合理論與案例洞見,歸納出詐騙風險特徵,並提出對應的防範對策與倫理建議。本研究並構思「虛擬戀人詐騙風險分析模型」,整合技術與心理指標,用以檢測潛在詐騙可能性;同時從防詐教育與科技倫理層面提出策略。整體而言,本研究屬於概念性質的分析,並未進行實證實驗或問卷調查,而是以系統性綜合與批判性思考方式,提供行動上的建議。
六、案例分析
案例一:法國布萊德·彼特詐騙案。 趨勢科技報導指出,2025年一名53歲法國女性(化名「安妮」)誤以為自己與好萊塢巨星布萊德·彼特建立了一段長達一年多的戀情,最終被詐騙團伙騙走了83萬歐元。該案中,騙徒以「布萊德·彼特的媽媽」為自稱開頭,引導受害者認識「彼特」。受害者雖初有疑慮,但在經過長達一年半的虛擬情書、情詩與求婚攻勢後,她逐漸卸下心防
。詐騙者並充分利用AI影像生成技術,製作出數張幾可亂真的「彼特」照片及短片,以營造逼真的情感交流場景(如視訊通話及手寫情書場景圖)。在此過程中,受害者始終堅信對方是真人。類似案例也出現在其他名人身上,受害者對偶像的崇拜心理被徹底利用。此案說明了深偽 技術在浪漫詐騙中的典型應用:換臉與影像合成使得詐騙角色外觀逼真可信,結合個人化情話營造真實感(a personalized approach),讓受害者深度投入情感,而後迅速轉為金錢要求。
VIDEO
案例二:亞洲虛擬美女詐騙集團。 2024年香港警方發布新聞稿,披露一個由20多名年輕騙子組成的詐騙集團,他們在網路上建立一個虚拟加密貨幣平臺,並以「寡婦」或「待嫁女性」形象在社交網站招攬亞洲(含台灣、新加坡至印度)男性受害者。這些騙子使用深偽技術,在視訊聊天中以一名虛擬女性的形象出現,實際上是經過AI合成的虛擬人物。警方表示,因為螢幕上出現的女子「並不是真人,而是利用深偽AI引誘受害者」,總計使多名受害者損失超過4,600萬美元。此案例顯示,詐騙集團不僅運用AI影像創造虛擬臉孔,亦整合語音轉換、精心編寫的情感劇本,構建完整角色背景。亞洲金融中心警方指出,該集團目標為台灣等地受害者,犯罪嫌疑人多數接受過高等教育,與IT專家合作開發詐騙工具。此案凸顯跨國詐騙與產業化分工的趨勢,以及虛擬戀人 詐騙的規模化可能。
VIDEO
案例三:台灣在地警政宣導。 台灣警方亦已開始對相關詐騙手法發出警告。例如,高雄市警局以詼諧短片提醒市民,隨著AI技術進步,「深偽 變臉技術讓『眼見為憑』徹底失效」,不法分子利用AI製造超擬真的假影像與語音來詐騙。臺北市政府也在2023年宣導指出,深偽技術可被有心人士用於「假訊息、影片、語音等合成製作,甚至用於強化詐欺手法的擬真性,令民眾難辯真偽」
。另外,趨勢科技同時報導了臺灣粉絲被冒用偶像照片的案例,如一名粉絲相信自己正在與歌手劉德華視訊約會,最終遭騙走新台幣264萬元
。上述實例反映了深偽虛擬戀人 詐騙在台灣也逐漸浮現。總體而言,這些案例展示了深偽技術結合浪漫詐騙的具體圖景:受害者先被精心設計的虛假角色吸引,之後在建立一定信任後轉化為金錢掠奪。而該過程中,受害者普遍因情感需求而忽視警訊。
VIDEO
七、討論
7.1 技術應用與詐騙流程
從案例可見,深偽技術與AI聊天機器人協同作用是造成詐騙成功的關鍵。在社交工程流程中,詐騙者先利用AI生成極其逼真的影像與影片,以便在視覺上取得受害者信任。接著,透過AI聊天機器人或腳本自動產生文字內容與情話,使溝通過程連貫且符合受害者期待。如艾倫·圖靈研究所報告指出,生成式AI可「批量生產帶有假影像和虛構社交歷史的合成角色,繞過傳統偵測方法」,並運用大語言模型(LLM)持續優化對話腳本。換言之,AI技術提供了虛擬人物的「外形」和「人格」,兩者合一便形成極具說服力的虛擬戀人 。例如,「布萊德·彼特」案件中,騙徒一邊透過Deepfake 合成彼特的照片與視訊,一邊用個人化訊息增進情感連結
;這與Wired報導中提到的趨勢吻合,即詐騙者能利用AI提高效率、建立大量可信身份。
另一方面,AI雖然強大,但並非完全自動。正如 Wired 所言,目前「生成式AI聊天機器人還做不到完全自主執行浪漫詐騙」
;實際上,詐騙者通常仍需投入人力來扮演虛擬角色、監督並修正AI生成的內容。然而,如艾倫·圖靈報告所述,AI生成的對話介面已能大幅減少人力負擔。因此可推測,詐騙流程往往是人與AI的協同合作:人類操作者設定大方向與應對策略,AI則自動化訊息產出,縮短與受害者互動的準備時間。這種結合不僅擴大了詐騙規模,也使傳統的安全審查和反詐手段更難奏效。例如,AI產生的圖像可繞過反向搜尋、模版比對等檢測機制
;而AI語言生成可產生流暢、多語言的交流內容,使受害者無法輕易察覺語言不協調之處。總括而言,深偽 與AI聊天共同構成了一種技術加持的社交工程,其複合效果遠超純人工詐騙。
7.2 受害者認知與心理因素
案例與文獻均指出,受害者之所以輕易相信虛擬戀人 ,關鍵在於情感需求與認知偏誤。首先,目標對象往往處於孤獨或情感匱乏的狀態
。由於人類有與人連結的基本需求,孤獨者會主動尋找網路情感慰藉。在這種心理動機下,一旦遇到貼心的虛擬對象,個體便傾向形成強烈的情感投入。Wired評論指出,浪漫詐騙「利用受害者的孤獨感」,詐騙者每年可從中牟利數億美元
。正如心理學文獻強調的,「孤獨和渴望連結使人更容易被操縱」
。其次,受害者可能具有浪漫理想化的認知傾向。他們期望找到真愛、相信命中註定,因此容易對看到的訊息篩選性地信任,即使已有疑慮也會被未來的「甜言蜜語」一再消除。
如文獻所言,受害者常有浪漫理想化、衝動性或尋求新奇的特質,這些特質讓他們對警訊反應遲鈍,無法及時退出
。再者,雙方透過情感交互建立的信任關係也強化了真實感。根據可信度理論,當人覺得對方是「可信任的陌生人」時,即便證據不足也會放鬆防備
。詐騙者透過長期經營(長達數月的對話
和不斷的情感暗示,讓受害者逐漸認定這份關係是真實的。在這些心理機制下,認知偏誤如確認偏誤與承諾升高作用同時發揮作用:受害者先驗性地只相信支持戀愛假象的資訊(如虛擬對象的一貫甜言),而忽略或合理化相反證據;此外,當受害者發現自己已投入大量情感或金錢後,更不願承認受騙,以免破壞「先前努力」的認知平衡。簡言之,寂寞渴愛與認知偏誤共同作用,使受害者容易對虛擬戀人 心存真實感,最終陷入詐騙陷阱。
7.3 虛擬戀人詐騙風險分析模型
綜合前述,本研究構想一套「虛擬戀人詐騙風險分析模型」作為實務參考。此模型將同時考量技術指標與用戶心理特徵,以評估交互情境中的詐騙風險。具體而言,可包含:
(1) 影像與聲音鑑識:分析視訊或照片是否經過Deepfake 生成(如檢測細微偽造痕跡、鏡頭連貫性);
(2) 對話文本特徵:檢測訊息是否由AI自動生成(如語句規律、翻譯痕跡)或過度個人化;
(3) 社交行為模式:辨識對方是否使用多重帳號、突然進行高頻互動、或快速要求私下聯絡;
(4) 用戶心理評估:如受害者的孤獨程度、尋求愛情的迫切度或過往情感經驗;
(5) 財務行為變化:對方是否急催匯款或涉及投資加密貨幣等高風險操作。
上述構面需結合平台的行為分析工具和心理學研究結果。當多項風險指標同時高量級出現時,系統將標記該互動為「高風險虛擬戀人 」,提醒用戶及平台管理者進一步驗證。此風險分析模型可協助社群平台與交友軟體對使用者行為進行檢測與篩選,提早預警可疑詐騙,以保護用戶安全。
八、結論與建議
本文聚焦探討深偽 與AI技術在虛擬戀人詐騙中的應用與道德挑戰,並從心理學、資訊安全及倫理學角度進行綜合分析。研究發現,詐騙者透過Deepfake 換臉技術與AI生成對話,打造極高擬真度的虛擬戀人 形象,並與受害者建立情感連結;受害者則因孤獨感與愛情需求,加上真誠與浪漫的認知偏誤,而往往相信該形象的真實性。事實上,如英國艾倫·圖靈研究所指出,AI已被用於**「生成個人化詐騙角色、合成影音內容提升欺騙效果、並利用語言模型改善詐騙劇本」**
;而受害者的心理脆弱,使得這種高度客製化的詐騙極具危險性。
8.1 研究發現
本研究深入分析了深偽技術於虛擬戀人詐騙中的應用機制,並在跨領域整合心理學、資訊安全與倫理學的基礎上,產生以下關鍵研究發現:
首先,研究建構出一套具體可行的「虛擬戀人詐騙風險分析模型」,此模型整合技術特徵(如AI語言模型生成風格、虛擬影像特徵)、使用者互動行為(如情感迅速升溫、拒絕實體會面等)與社交工程手法,可作為交友平台與社群媒體進行使用者篩選與可疑行為辨識的重要參考工具。此一模型為目前實務界所缺乏的早期警示系統提供理論與應用基礎。研究透過實際案例剖析與認知心理學理論驗證,發現多數受害者普遍存在「愛情認知偏誤」、「資訊不對等信任機制」以及「寂寞驅動的情感投射」,這些心理因素成為詐騙成功的關鍵背景條件 。據此,本研究發展出一套可應用於數位素養訓練之防詐教材架構,特別強調如何辨識深偽戀人之異常行為模式,提升使用者對生成式AI可能性與潛在風險的理解。從倫理與政策層面觀之,本研究提出具前瞻性的「數位道德框架」,呼應UNESCO對AI發展之人權與尊嚴原則,建議科技開發者與平台業者應建立透明化的AI內容識別與標示機制 ,制定嚴謹的用戶隱私與風險管控政策,並推動跨領域倫理討論,以明確界定AI在虛擬情感與社交互動領域中的責任界線。本研究亦指出,當前許多國家在相關法規仍屬空白或碎片化狀態,對於深偽詐騙難以有效應對,凸顯國際協作與標準化制定之急迫性。
本研究不僅揭露了虛擬戀人詐騙結合深偽技術後的高度擬真與操控能力,更點出其對人類情感、資訊安全與社會信任體系的深層衝擊,並為學界、產業界與政策制定者提供了可行且可實施的風險治理策略。這些研究成果將有助於未來針對虛擬關係與AI倫理進行更系統性的探討,為數位時代的人機互動建立更加安全與有責的使用環境。
8.2 未來研究方向
本研究主要聚焦於深偽 技術與AI聊天機器人如何被用於虛擬戀人詐騙的應用與風險探討,然而隨著技術的快速演進,仍有數個面向值得進一步研究與拓展。首先,建議進行更大規模的量化調查,分析不同族群(如青少年、中高齡者、數位原住民與弱勢群體)在遭遇虛擬戀人詐騙時的心理反應與判斷誤差。藉由統計模型可更精確推估風險程度,並建立可行的預警機制。
其次,未來可發展「深偽詐騙辨識系統」之技術性研究,例如以機器學習模型自動檢測虛擬人物影像中的異常模式、聲音頻譜分析,或文字對話語意偵測等方式,協助平台自動攔截可疑帳號。此外,跨平台合作開發聯合黑名單與詐騙模型,也將是數位防詐的一大關鍵。再者,道德與法制研究亦需跟進,包括制定AI生成內容之標示標準(如虛擬圖像需註明非真人)、平台責任邊界與法律追訴機制等。目前各國對深偽詐騙的法律規範尚不一致,國際合作與標準化將是下一步挑戰。最後,建議未來研究可將「虛擬戀人 」延伸至「虛擬伴侶」與「AI陪伴型系統」領域,探索當人類與AI建立長期情感連結時,所衍生的倫理困境、人機依賴風險與社會心理變化,為AI時代的親密關係提供新的理解與規範基礎。
參考文獻
Coluccia, A., Pozza, A., Ferretti, F., Carabellese, F., Masti, A., & Gualtieri, G. (2020). Online romance scams: Relational dynamics and psychological characteristics of the victims and scammers. A scoping review. Clinical Practice and Epidemiology in Mental Health, 16, 24–35. https://doi.org/10.2174/1745017902016010024
Dhaliwal, J. (2025, February 11). AI chatbots are becoming romance scammers—and 1 in 3 people admit they could fall for one. McAfee Blog. https://www.mcafee.com/blogs/privacy-identity-protection/ai-chatbots-are-becoming-romance-scammers-and-1-in-3-people-admit-they-could-fall-for-one
林芸. (2025, 2月21日). 愛情騙局?! 從頭到尾都是假面具 AI變臉騙很大?少年刑事鴿教你拆穿它!很角色時報。
Pamala B. Rutledge Ph.D. (2023, 9月18日). 5 Tips to Avoid Digital Deception When You’re Lonely. Psychology Today. https://www.psychologytoday.com/us/blog/positively-media/202309/5-tips-to-avoid-digital-deception-when-youre-lonely
Sing Tao Daily. (2023, 2月12日). 人工智能或成网络恋爱诈骗新工具. 加拿大星岛日报, 網站新聞。
Taipei City Government Traffic Bureau. (2023, 5月29日). 「換臉變聲AI科技詐騙手法」宣導. 台北市政府. https://www.gov.taipei/News_Content.aspx?n=D0042A87C2F0270A&sms=78D644F2755ACCAA&s=4111A62D9B5D0CEA
Trend Micro. (2024, 3月11日). 「假」愛情、「真」陷阱!趨勢科技指出3種白色情人節詐騙手法,助你避開「愛的陷阱」 [新聞稿]. 趨勢科技. https://www.trendmicro.com/zh_tw/about/newsroom/press-releases/2024/2024-03-11.html
Trend Micro. (2024, 8月26日). 2024年最會演的AI!投資人、HR、愛情暈船者必須了解的三種 Deepfake詐騙影片 [部落格文章]. 資安趨勢部落格. https://blog.trendmicro.com.tw/?p=83676
趙皓明律師. (2024, 11月27日). 感情詐騙層出不窮,別讓自己成為下個愛情詐騙的受害者!法律010。https://laws010.com/blog/criminal-offense/fraud/romance-scam/
Trend Micro. (2025, 1月23日). AI布萊德·彼特騙2800萬!快下載AI 防詐達人,戀愛腦馬上醒 [部落格文章]. 資安趨勢部落格. https://blog.trendmicro.com.tw/?p=86263
Trend Micro. (2025, 2月12日). 別讓你的「名人老公」變成詐騙集團的提款機!盤點這些年愛情騙子冒用過的男神 [部落格文章]. 資安趨勢部落格. https://blog.trendmicro.com.tw/?p=86506
UN Educational, Scientific and Cultural Organization (UNESCO). (2021). Recommendation on the Ethics of Artificial Intelligence. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000376705
Wired. (2025, 2月13日). The loneliness epidemic is a security crisis. WIRED. https://www.wired.com/story/loneliness-epidemic-romance-scams-security-crisis/
Alan Turing Institute. (2025, 4月15日). AI scaling up romance scam operations globally. The Alan Turing Institute. https://www.turing.ac.uk/news/ai-scaling-romance-scam-operations-globally