聯絡中心的ChatGPT有什么問題?

      關于 ChatGPT(和其他生成式人工智能系統)為聯絡中心帶來的機會。在 Talkdesk,我們相信像 ChatGPT 這樣的生成式預訓練轉換器 (GPT) 大型語言模型 (LLM) 支持系統將成為下一代聯絡中心即服務 (CCaaS)的支柱。

      聯絡中心的ChatGPT有什么問題?-南華中天

      我們推出了第一個功能,利用這些功能自動總結客戶對話并準確選擇他們的傾向(例如,請求跟進、想要取消服務等)——有效地消除了客戶服務代理的大部分電話后工作。我們正在積極地將這些 LLM 集成到其他核心聯絡中心用例中,并制定我們的路線圖以加速我們的客戶可以從這些自然語言處理技術中獲得的價值。

      但我們也了解這項新技術的重要性,以及它可能帶來的壞處和好處。

      許多著名的技術領袖——包括伊隆·馬斯克、史蒂夫·沃茲尼亞克和安德魯·楊——公開呼吁暫停訓練比 ChatGPT-4 更強大的人工智能系統,人們普遍擔心失控的人工智能將超越人類的能力好好利用它。我認為現在是為聯絡中心描述這些新法學碩士的一些最重要的道德問題的好時機。任何考慮在其聯絡中心使用這些人工智能模型的公司都應該意識到潛在的陷阱,并考慮有助于確保安全和積極的客戶體驗的流程。

      ChatGPT 在聯絡中心的五個道德問題

      1.透明度

      在聯絡中心使用 ChatGPT 和其他生成式 AI 系統的第一個道德問題是透明度,這既適用于清楚 AI 驅動的決策是如何做出的,也適用于它是由 AI 做出的事實。客戶有權知道他們的互動是否由 AI 介導。例如,如果客戶認為他們是在與人交談,后來發現他們是在與聊天機器人交談,這可能會削弱對公司的信任并損害客戶與品牌的關系。在設計聊天機器人和虛擬代理時,向客戶充分披露信息至關重要。

      聯絡中心的ChatGPT有什么問題?-南華中天

      2.偏見

      另一個倫理問題是聊天機器人和虛擬代理的反應可能存在偏見。ChatGPT是一種基于大量文本數據進行訓練的機器學習模型,并且存在該數據可能以某種方式存在偏差的風險。例如,如果自動質量審查偏向于一種說話模式而不是另一種,這可能會導致對代理人的不平等對待,從而導致歧視。

      3.數據安全

      與任何處理個人身份數據的軟件系統一樣,流經 LLM 的數據需要保持端到端的靜態加密,并遵循所有確保客戶數據安全的數據隱私注意事項。

      4.如實輸出

      另一個道德問題是 ChatGPT 可能會產生“幻覺”或編造可能不真實的答案,但會以令人信服的方式傳達這些替代事實。當然,我們不想向客戶提供錯誤信息,尤其是當他們用它來做出人生決定時。

      5.工作置換

      最后,還有工作流離失所的問題。隨著越來越多的公司轉向基于 AI 的聊天機器人,例如 ChatGPT,人工聯絡中心代理可能會失業。公司必須考慮自動化可能對其員工產生的影響,并采取措施減輕任何負面影響,尤其是要想象通過將大部分日常工作自動化來提供更好服務的新機會。

      聯絡中心的ChatGPT有什么問題?-南華中天

      在 GPT-4 暫停?

      法學碩士最近的發展速度令人震驚,并且存在如上所述的合理擔憂。在沒有保障措施(至少考慮和減輕負面結果)的情況下快速發展人工智能可能會導致這些負面結果出現。

      生命未來研究所( FLI)——這封呼吁暫停的公開信的作者——希望確保人工智能技術的發展方式有利于人類并避免潛在的風險和危險。他們擔心主要的人工智能實驗室處于“失控”的軍備競賽中,目前沒有適當的監督來確保他們以合乎道德的方式工作。

      隨著時間的推移,我們會仔細跟蹤這些討論。但我們對我們的客戶以及每天與我們的軟件系統交互的數百萬人的承諾是,根據上述道德考慮不斷評估我們的決策的影響。

      最后的想法

      對于我們已經投放市場和正在開發的 LLM 支持的功能,我們允許透明的決策;如果存在偏見,由人工審閱者進行修改以糾正偏見;對數據隱私和安全的絕對承諾;反幻覺技術;仔細考慮 LLM 對人類代理的影響——著眼于想象人類在自動化時代的擴展角色(我最近寫了關于監督機器人團隊的指導代理的概念)。雖然 LLM 將為數百萬尋求我們所愛的公司的幫助和支持的我們提高服務質量,但我們當中的軟件工程師、設計師和產品負責人有責任在我們構建時考慮和解決這些道德問題。