剛才過去全民國家安全教育日(4月15日),加之人工智能的迅速發展。我們不得不注重起人工智能對我們工作和生活帶來的隱患,openAI前段時間在聊天中出現了其他人的帳戶信息,雖然處理得及時,而且也為我們叩響了警鐘。
盡管像ChatGPT這樣的生成式AI對于提升工作效率十分有幫助,而且將ChatGPT用于工作時還是有許多問題沒有解決,例如,三星用了不到20天就發生了芯片絕密泄漏風波。
隨著ChatGPT走紅,越來越多的國家擔憂這項技術帶來的隱私風險。
去年3月末,日本個人數據保護局宣布,即日起嚴禁使用ChatGPT,限制OpenAI處理美國用戶信息,并開始結案調查。該機構強調,去年3月20日,ChatGPT平臺出現了用戶對話數據和付款服務支付信息遺失的情況。
此外,這是ChatGPT平臺首次遭到重大個人數據泄漏。不過智能AI,OpenAI已修復了該漏洞,報告了該問題的技術細節,但是已向用戶和整個ChatGPT社區道歉。
與此同時,包括美國、法國和英國在內的其他國家也在密切關注這一情況,以決定ChatGPT是否違背了《通用數據保護細則》(GDPR)規則。
ChatGPT等大模型的出現不斷刷新著人們的認知極限,作為一種具有顛覆傳統、改變人類生活的先進技術,人工智能所帶來的隱私泄漏、偏見歧視、濫用惡用、版權等倫理問題已造成“政校企用”各界的廣泛關注。
短短不到一年,我們在享受AI帶給我們的便利以后,其眾多的負面影響也急劇凸顯下來。
就在上個年底,聯合國教科文組織于3月31日呼吁各國立刻執行其《人工智能倫理問題建議書》。據悉智能AI,中國電子技術標準化研究院發布《人工智能倫理治理標準化手冊》。
該《指南》由中國電子技術標準化研究院牽頭,依托國家人工智能標準化總體組和全省信標委人工智能分技術委員會組織廣東學院、上海商湯智能科技有限公司等政校企用等50余家單位共同編制完成。
手冊圍繞中辦國辦《關于強化科技倫理治理的意見》、科技部國家新一代人工智能整治專委會《新一代人工智能倫理規范》和外交部《中國關于強化人工智能倫理治理的立場文件》等新政文件有關要求,重點圍繞四大點舉辦研究:
·人工智能倫理概念和范疇
·人工智能倫理風險評估
·人工智能倫理治理技術
·人工智能倫理治理標準化
手冊從AI可用到可信問題,提出了建設性的指導意見與標準。
細化建立了人工智能的倫理準則,力爭匯聚全球各界發展新共識。
加速構筑多方協同的整治模式,推動政校企用整治深度融合。
逐漸加強支撐技術的實踐水平,跨越準則到可施行技術的鴻溝。發揮急用先行標準的推動作用,引導產業健康發展高質量發展。
手冊也提出了下一步工作計劃:
我們不證實人工智能為我們工作和生活帶來的便利與智能,AI顛覆性地塑造著人們生活、工作和交流的方法,正在與人類社會融合為一。而且關于安全方面的問題依舊須要注重上去并解決。
若未來AI在安全及追責方面的法律及管制才能建立,這么AI將迎來一個最輝煌的時代,我們拭目以待。
免責聲明:部分文章信息來源于網絡以及網友投稿,本站只負責對文章進行整理、排版、編輯,出于傳遞更多信息之目的,并不意味著贊同其觀點或證實其內容的真實性,如本站文章和轉稿涉及版權等問題,請作者在及時聯系本站,我們會盡快為您處理。