跳至主內容

ChatGPT 是否可以安全使用?你需要知道的知識

一名女子使用手提電腦

可以肯定地說,憑藉其廣泛的用途以及能夠融入我們生活各方面的潛力,ChatGPT 和其他形式的人工智能代表了革命性的進步。但明智的做法還須考慮一下「ChatGPT 是否可以安全使用?」這個問題。在本指南中,我們將探討你需要瞭解的所有知識。

甚麽是 ChatGPT?

ChatGPT 的創建者將其定義為「經過訓練可以協助完成各種任務的人工智能」。就本質而言,它是一個人工智能驅動的聊天機械人,可以對使用者的查詢產生自然語言回應。ChatGPT 由機器學習演算法提供支援,該演算法已利用數百萬份文檔進行過訓練。由於它所使用的語言模型,ChatGPT 可以產生聽起來像人類的文本並與人聊天(因此它的名字中包含了「chat(聊天)」這個字)。

以語言為基礎的人工智能的簡單版本已經公開發佈多年,但 ChatGPT 是迄今為止最先進的版本。ChatGPT 由 OpenAI 創建,OpenAI 是一家人工智能和研究公司。

ChatGPT 代表甚麽?

ChatGPT 中的 GPT 代表 Generative Pre-trained Transformer(生成型預訓練變換模型)。

ChatGPT 能做甚麽事情?

憑藉其強大的自然語言處理能力和快速產生個人化回應能力,ChatGPT 可用於各種商業環境,例如客戶服務、客戶支援、營銷自動化等。即使其確切或全面的影響仍有待確定,很多人都預測 ChatGPT 將徹底改革商業模式。

這個工具對個人使用者也很有用。ChatGPT 對個人用途的例子可能包括:

  • 為文件撰寫總結並指出重點或行動
  • 將文本翻譯成其他語言
  • 編寫程式或為程式除錯
  • 回答特定查詢
  • 解釋如何執行某些任務
  • 創作音樂或詩歌

使用 ChatGPT 時有多種語言可供選擇,並且在世界大部地區都可以使用(雖然由於數據保護法,在某些國家被禁止使用)。由於 ChatGPT 的回應是由 AI 語言模型產生的,因此並不總是準確或完整的。因此,我們必須評估 ChatGPT 所提供的資訊並在適當的情況下諮詢其他來源。

ChatGPT 安全嗎?

主要的擔憂是像 ChatGPT 這樣的人工智能語言模型是否會被用於有害的方式。ChatGPT 潛在的安全風險包括:

垃圾郵件和網絡釣魚

網絡釣魚是最常見的網絡威脅之一。網絡釣魚詐騙通常很容易識別,因為這些詐騙訊息可能包含拼寫和語法錯誤,以及使用笨拙的措辭 。這種情況通常發生在騙子使用非其母語的語言來撰寫訊息。現在全世界的騙子都能透過 ChatGPT 非常流利地使用英語(和其他言),對改善他們的網絡釣魚訊息有極大幫助,從而令人更難識破。此外,由於模型是在大量資料的基礎上訓練出來,因此騙子比以往任何時候都更容易按照他們所偽裝的公司的風格來製作令人信服的電子郵件 。

欺詐者也有可能為了騙取人們的金錢而利用 OpenAI 的技術創造一個令人信服的虛假客戶服務聊天機械人。

資料洩露

2023 年 3 月,ChatGPT 創造者 OpenAI 發現了一個問題,令 ChatGPT 停機了幾個小時。在那段時間內,一些 ChatGPT 使用者看到了其他使用者的對話歷史。還有報導稱,ChatGPT-Plus 訂閱者(為該應用程式的增強版本的付費用戶)的付款資訊也可能已被洩露。

OpenAI 發表了一份關於該事件的報告,並解決了導致問題的原因。但這並不能防止今後出現新的問題。任何網上服務都存在意外洩露和網絡安全漏洞的風險,而構成這些風險是因為黑客數量正不斷增加。

私隱問題

潛在的資料濫用確實是一個真正的安全問題。OpenAI 的 ChatGPT 常見問題解答建議你不要分享敏感資訊,並警告使用者他們是無法刪除其提出的問題。同樣的常見問題解答指出,ChatGPT 會儲存對話,而這些對話由 OpenAI 審查以用於訓練目的。

一名女性正查看她的手機

協助傳播假新聞和錯誤資訊

在這個錯誤資訊、 虛假資訊和假新聞可以在網上迅速傳播的世界中,有人擔心 ChatGPT 會助長這個問題。ChatGPT 的回答是根據用於對其進行訓練的資訊 ,其中大部分來自互聯網。然後,該應用程式會創建一連串有可能接踵出現的詞語作為回覆。由於互聯網上存在錯誤資訊和虛假資訊,因此 ChatGPT 也有可能在回覆中使用錯誤資訊。 ChatGPT 還可用於冒充個人,從而在問答過程中操控其他人。

可能會出現偏見

即使資訊是正確的,也可能顯示出政治或其他類型的偏見。與任何機器學習模型一樣, ChatGPT 也會反映所用訓練資料的偏見。如果這些資料存在偏見,它的輸出也可能存在偏見 -- 有可能產生不公平、歧視甚至冒犯性的回覆。ChatGPT 據報已採取措施識別並避免回答帶有政治色彩的問題,但在使用該服務時, 還是應該注意可能出現的偏見。

身份盜竊和資訊收集

惡意行為者可以利用 ChatGPT 收集資訊,然後用於有害目的。由於聊天機械人使用過大量資料進行訓練,因此它知道大量資訊,如果落入壞人之手,這些資訊可能會被用於危害目的。

例如,在一個案例中,有人追問 ChatGPT 要求披露某間銀行使用的資訊科技系統。聊天機械人整理了公共領域的資訊,列出了該銀行使用的各種資訊科技系統。這個例子顯示惡意行為者可以利用 ChatGPT 來確定或找出可用於危害目的的資訊。

為了解決這些問題,OpenAI 已採取措施確保其語言模型的安全。這些措施包括建立嚴格的存取控制,防止沒有權限者進入其系統,以及制定人工智能開發和使用的道德規則。這些規則包括承諾以負責任方式使用技術,以及具透明度和公平。

欺騙 ChatGPT 編寫惡意程式

ChatGPT 可以產生程式,而人工智能被編程設計為不能產生惡意程式或用於黑客目的的程式。如果要求提供黑客程式,ChatGPT 會告訴使用者,其目的是「在遵守道德準則和政策的同時協助完成有用和合乎道德的任務」。

然而,想操控 ChatGPT 並非不可能 ,只要有足夠的知識和創意 ,壞人就有可能誘使人工智能產生黑客專用程式。在黑客論壇 上,黑客聲稱正在測試聊天機械人,為他們重新編寫惡意程式。 由於已在公共領域發現此類帖子,所以暗網上可能還有更多類似的帖子 。較少被討論的是 ChatGPT 本身被黑客攻擊的可能性 -- 如果真的發生了這種情況,威脅者可能會利用它來傳播錯誤資訊。

ChatGPT 詐騙

每當出現任何新技術或新平台時,新的詐騙方式也會隨之出現,因為網絡犯罪分子不斷尋找賺錢的方法 。ChatGPT 自推出以來引起了巨大的興趣,因此看到包含可以竊取你的密碼和金錢的惡意軟件的虛假 ChatGPT 應用程式也就不足為奇了。有時,這些虛假應用程式會透過免費、無限制存取及具有最新功能的訊息進行宣傳。

還是那句老話 -- 如果某件事聽起來太好而顯得不像是真的,它就很可能是假的。請謹慎處理透過社交媒體或電子郵件宣傳的 ChatGPT 優惠。對自稱 ChatGPT 的應用程式也要保持警惕。要在手機上使用 ChatGPT,你可以透過手機瀏覽器或使用官方應用程式。

ChatGPT 也可以幫助網絡安全專業人員

作為首批具有良好語言技能的公開人工智能例子之一, ChatGPT 引發了關於其機遇和潛在風險的廣泛討論 。與任何新技術一樣,謹慎行事非常重要。大眾很容易沉醉於興奮中,而忘記了自己面對的是一項可能被利用或濫用的網上服務。

同樣, 雖然 ChatGPT 可以幫助威脅者實現網絡犯罪,但也可以幫助實現防禦目的。網絡安全專業人員也可以將 ChatGPT 作為其武器庫中的一種工具 。

使用 VPN 確保上網安全

無論你如何使用 ChatGPT ,盡可能保護你的網上私隱的一個重要方法就是使用 VPN 或虛擬私人網絡。 VPN 讓你可以以匿名方式連接上網,並隱藏你的 IP 位址 -- 防止第三方追蹤你的活動。

如果你想隱藏你的 IP 位址並以安全方式瀏覽,同時確保資料安全,那麼像 Kaspersky VPN Secure Connection 這樣的 VPN 是一個不錯的選擇。透過 Kaspersky VPN Secure Connection,你能夠以行業領先的速度安全和匿名地在網上瀏覽,在任何地點不受限制地獲得全球內容。

若需加強保護,你還可以考慮使用密碼管理器 -- 它會為你隨機產生強密碼並以安全方式儲存在數碼保險庫中。

相關產品:

ChatGPT 是否可以安全使用?你需要知道的知識

ChatGPT 引起了各種安全和私隱問題。請閱讀我們的指南,以瞭解 ChatGPT 的安全性以及 ChatGPT 是否可以安全使用。
Kaspersky 標誌

相關文章: