AI炮制了謠言,科普如何破局
□ 王大鵬

“近期,某人工智能平臺結合部分科普內容生成謠言,造成不良影響。如果人工智能平臺熱衷生產謠言,或者淪為人類造謠的‘背鍋俠’,將成為‘細思恐極’的事情。”
============================================================
當人們還在探討人工智能大模型會給生活帶來哪些便利的時候,殊不知AI已經開始干壞事了。比如,AI換臉技術引發的不法事件。科普也未能幸免。近日,一則“十大致癌衛生巾黑名單”的文章在全網瘋狂傳播,再加上部分博主未經核實就進行解讀,更是起到了推波助瀾的作用,最后只能由官方出面澄清:此消息為AI生成。
人工智能時代,科普該怎么破局?消費者又該如何增強信息辨識能力,識破虛假信息?在人工智能大模型的訓練和應用過程中,科普又應該發揮哪些方面的作用?
人工智能確實在很大程度上便捷了我們的生活,但是人類在享受便捷性的同時,也要從科技向善的維度給它備好“剎車”。如今,我們生活在一個完全依賴科技的社會中。很多人認為只要付費,科技就會像魔法一樣為我們帶來想要的結果。這在某種程度上也印證了亞瑟·克拉克爵士那條廣為人知的“定律”:任何足夠先進的技術都與魔法無異。
首先,從科普工作本身來說,社會需要將相應的工作前置,不能臨時抱佛腳。我們應該既讓公眾知曉人工智能給社會經濟帶來的好處,也需要說明它給我們帶來的挑戰。同時,還應該讓公眾了解人工智能有可能會導致“信息失序”,產生誤導信息、虛假信息和惡意信息。
其次,從人工智能大模型訓練的角度來說,我們需要增加多元性的信息,尤其是科學內容的“投喂”。曾經有人這樣形容人工智能的投入—產出模式:它不像奶牛那樣吃草產奶,而是吃啥產啥。如果人類“投喂”的素材本身就存在偏差,就不可能期待它產出正確的結果。更何況,人工智能現在已經開始自動生成謠言了。
“十大致癌衛生巾黑名單”的內容上標注了“全網內容智能分析”的來源,其實,這里面涉及兩個“細思恐極”的問題。其一是,如果該假消息全部為人工智能所為,那么未來會發生更多的類似情況,我們也將處于危險的境地。其二是,未來AI有可能成為一個虛擬的“背鍋俠”。無論哪一種情況,都是我們不愿意看到的。
為了避免產生更多的謠言和偽科學,人工智能生產平臺需要加強與辟謠平臺的互聯互通。同時,對于人工智能生產出來的素材,社會應該引入專家審核的環節。這種審查不僅僅包括內容的科學性,還包括是否存在隱藏的意識形態問題,以及是否符合科研倫理的問題等。這對于審核專家來說,是一個重大挑戰。
再次,對于受眾而言,增強辨偽防騙的能力就變得更加重要。這也是我們一直倡導科普要從知識補課轉向價值引領的一個重要原因。畢竟相較于知識來說,我們更需要的是科學思維、科學方法、科學精神、科學態度和科學理性,更需要的是在關鍵時刻能夠找到自己所需的信息和知識的能力,是對呈現在自己面前的事實和觀點進行區分的能力,以及對于信誓旦旦的表述多問幾個為什么的意識和能力。
最后,對于AI平臺來說,相關機構應該主動承擔起社會責任,在“踩油門”的同時要備好“剎車”。面臨AI炮制的謠言和偽科學,科普不能無所作為,但是光靠科普也很難產生較好的效果。科技向善、企業社會責任不能停留在口頭上和紙面上,而是要落實到實際行動上,與用戶共同構筑起健康、理性的人工智能應用平臺。
(作者系中國科普研究所副研究員、中國科普作家協會理事)