人工智能正在擁有「嘴」和「鼻」
越來越像人了
作為人造的智能,AI人工智能擁有著人類難以企及的強大智慧量和信息處理能力,而現在,人類正在賦予其更多的“感官”,讓它越來越“像”人了。
就在最近,OpenAI宣布將為ChatGPT加上語音功能,相當于給人工智能加上了“嘴”,而此前OpenAI已經為ChatGPT加上了“眼睛”,將在10月正式上線,面向付費的Plus和企業版用戶。
不僅如此,最近已經有研究團隊正在努力以AI模型為基礎,讓機器擁有比肩,甚至超越人類的嗅覺。
人工智能擁有“視、聽、嗅”這樣的感官究竟有什么必要,今天筆者就和大家一同探究。
人工智能看得更仔細
“眼”應該是人工智能較早擁有的人類感官。
研究者從很早就開始讓機器能夠學會“看”,其原理也非常簡單,就是用大量的數據進行“投喂”。通過標注區分每張照片、視頻中的結構、模型、色彩等信息,由計算機形成對圖片內容的數字信息概念,進而完成區分。也就有了“計算機視覺”。
(圖源:小米)
現有的計算機視覺在日常生活中應用已經很多,尤其在大家的智能手機當中,在拍照時無論是“人像模式”的主體摳像,還是美顏相機等一眾強大算法,都離不開計算機視覺。
這次ChatGPT加入的“眼睛”則更進一步,直接整合了另一家文生圖大模型DALL·E 3,擁有圖片搜索功能,類似谷歌Lens,只要上傳照片,ChatGPT就可以發現照片中的問題,并且提供相應的回應。
(圖源:OpenAI)
而在文生圖部分,DALL·E 3相比同為AI畫圖應用的Midjourney,在語義理解、關鍵詞處理等方面也都更加強大,尤其改善了很多大模型對提示詞斷章取義的問題,“劉德華為什么很少演反派”觸發水軍關鍵詞的類似問題應該會少很多(笑)。
人工智能講得更自然
相比于“看”,“聽”對人工智能來說要更簡單不少。
在很早之前,互聯網公司們就已經開始積極布局“智能語音助手”了?,F如今,諸如蘋果Siri、小米小愛同學、百度小度,都已經有了相對成熟的應用。
但傳統的“智能語音助手”現在也只能做一些諸如開關燈、播報天氣這樣的簡單應用,一些相對復雜的操作還需要人工介入或者依賴預設的自動化選項。
而這次ChatGPT加上語音功能則能夠支持以5個“角色”視角來進行回答,相比傳統語音助手,語氣更接近真人,并且在ChatGPT龐大的語言模型支撐下,能夠回答更長的問題或執行更復雜的操作。
(圖源:公眾號 小米公司)
國內廠商也在布局,在去年5月20日當天,小米以自家小愛同學音箱為主角,舉辦了一場特殊的“脫口秀”,這就是小米所做的“情感對話”功能。
其準確把握到了當代社會人普遍存在的心理情感問題,并以一個“感情陪伴者”“傾聽者”的角度給予一定的陪伴和安慰。
此后,“智能語音助手”將可能被大模型更多改造,以適應情感陪伴、個性化對話等更具象化的需求。
人工智能聞得更有價值
在2013年愚人節期間,谷歌上線了一個愚人項目Google Nose,用戶只需要在谷歌搜索框內輸入關鍵詞,然后點擊“聞一聞”,就能在電腦旁聞到相應的味道,比如新車的氣味、早餐培根的香味等等。
(圖源:《復仇者聯盟3》)
這當然是一個愚人節玩笑(當然,如果你想聞電腦燒糊的味道的話,那還是有機會的,笑),不過現在正在有人試圖將這個項目落地。
今年9月初的《科學》雜志刊登了一篇由初創公司Osmo(從谷歌分拆)和莫奈爾化學感官中心(Monell Chemical Senses Center)等多個研究團隊共同發布的論文,其中稱,AI模型可以讓機器擁有比人類更好的“嗅覺”。
相比于圖片、語音、文字這樣已經可數字化記錄和呈現的內容,目前還沒有一個量化的指標能夠采集歸納出“氣味”。
(圖源:品玩)
實驗人員通過模擬人類嗅覺系統對于特定氣味分子的識別傳遞過程,搭建了一套“消息傳遞神經網絡”機器學習的模型,隨后引入了一個包含約5000個分子的香精香料數據庫,最終得出了一套嗅覺高維圖譜。其最終對氣味的識別準確率還要高過人類氣味專家。
而這樣一套讓人工智能能夠“聞”到味道的系統,可能有著大家想象之外的巨大意義。
回望人類利用嗅覺的主要場景,除了品味食物等日常場景,能夠最先想到的就是“警犬”——由于犬類比人發達數十倍的嗅覺系統,往往被訓練用作掃毒、排爆這樣的執法場景。而讓機器擁有嗅覺就能夠讓生物遠離潛在的威脅。
另一方面,早年筆者還曾看過,由于犬類發達的嗅覺,能夠對人類癌癥等病灶有明顯的感知,而由機器來“聞”則更加具象化且易于診斷,是醫療診斷的新發展路徑。
同時,這對于香水行業、餐飲業、環保業都有可能的幫助。
寫在最后
各位讀者覺得,讓機器、人工智能擁有人類的“五感”是有意義的嗎?歡迎在評論區留下你的看法。
本文作者:Visssom,觀點僅代表個人,題圖源:pixabay
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新
