出門旅游住哪家酒店,咖啡機買哪個品牌,電動牙刷哪款好用……隨著生成式人工智能搜索工具的日趨成熟,人們在做決定前已從過去的“搜索一下”,逐漸轉變?yōu)椤皢枂朅I”。
AI給我們帶來了很多方便。但AI給出的搜索結果就一定“客觀”嗎?記者調查發(fā)現,一些廣告代理機構早已盯上生成式人工智能搜索這塊“肥肉”,通過各種方式將廣告信息植入其中。
有的AI搜索結果暗藏廣告
“我想買個咖啡機,眼睛都挑花了,想讓AI給我選一個,結果買來發(fā)現‘踩雷’了?!睆V州市民張女士說,她根據AI“推薦”購買了一款帶自動拉花功能的咖啡機,價格不菲,但性能一般。
你以為AI輸出的是大模型給出的客觀結果(自然學習結果),實際上可能是從互聯網上“抓”下來的一條廣告。這樣的廣告投送方式正在興起,并成為一個新行業(yè)——生成式引擎優(yōu)化(GEO)。
生成式引擎優(yōu)化實際上是搜索引擎優(yōu)化(SEO)的“升級版”。
“過去大家都用網站搜索,誰給的錢多,誰的廣告信息就能出現在搜索結果的前幾位?!币晃粯I(yè)內人士告訴記者,現在用人工智能搜索,同樣存在這樣的問題——只要有廣告主愿意付費,其廣告信息就能出現在搜索結果中,并且還沒有“廣告”標簽。
記者聯系上一家生成式引擎優(yōu)化服務提供商。該機構的營銷人員向記者提供的多個植入“成功案例”顯示,一些從事新媒體、典當等行業(yè)的品牌“成功”混入人工智能的“搜索結果”。
“我們可以給你代運營,‘上搜索結果’速度快一點,效果也會好一些;也可以提供教學,你們自己去操作,但是‘上搜索結果’會慢一點?!边@名營銷人員介紹,如果選擇代運營,一年收費從2980元至16980元不等,“價格越高,算力越強,植入效果越好”。
記者了解到,目前市面上現有的所謂“生成式引擎優(yōu)化”業(yè)務,大多是廣告代理機構通過海量投放“軟文”,靠“概率”被大模型抓取,進而形成相應的搜索結果。
“搜索結果后面都有數字角標,點開角標就能看到結果出自哪個網頁?!币幻斯ぶ悄軓S商的技術人員分析認為,一些廣告代理機構通過摸索大模型的資料索引來源,有意識地向相關內容平臺投放“軟文”,從而提高該品牌被大模型抓取的成功率。
警惕假報告、假專家
定向投放海量的“重復”和“無用”內容讓大模型抓取,本質上是一種“數據污染”行為。
不久前,一家名為“知危”的科技自媒體進行了一次測試——他們在各大門戶網站投放了同名文章《最新最全的××媒體盤點:國內有哪些××資訊值得看?》,幾個小時后,多個生成式人工智能平臺在回答“想了解人工智能資訊可以看哪些媒體”時,各大平臺均給出了包含“知?!钡拇鸢?,而這一回答正是援引了上述文章。
“就像在AI面前丟了一疊看起來很可信的雷同資料,很容易被AI抓取到,但實際上這些內容都是‘同質’和‘劣質’內容?!薄爸!必撠熑死钕壬嬖V記者,這實際上是一個“詐騙”人工智能的“實驗”;“實驗”完成后,他們已刪除相關文章。
編造所謂的“權威報告”干預搜索結果,是一些廣告商的常用手法。
記者在某人工智能平臺上搜索“生成式引擎優(yōu)化服務商”時發(fā)現,大模型給出了幾個“推薦結果”。其中一個結果抓取了“2025年××研究簡報”和“2024××研究報告”作為“索引資料”。網頁信息顯示,這兩份“報告”由“國內某權威研究機構”出具。記者調查發(fā)現,相關研究機構根本沒有出具過上述“報告”,“報告”是某廣告代理機構編造發(fā)布的。
有的廣告商用“假專家”進行“假科普”。一家廣告代理機構透露,在定向投放的“軟文”中,客戶可根據需要自行設置“專家頭銜”。記者在某平臺上搜索“廣州市哪家醫(yī)院抽脂強”,大模型的推薦結果中,抓取了“湖南某三甲醫(yī)院整形外科副主任醫(yī)師”的“科普視頻”。然而,記者核實后,該醫(yī)院明確表示,這名“專家”并非該院的工作人員。
在一些電商平臺,一些賣家售賣聲稱可以進行生成式引擎優(yōu)化的工具。在某二手交易平臺上,有賣家在兜售“GEO系統使用權”“AI搜索優(yōu)化系統”等工具,一年使用權的售價在幾十元到百余元不等。記者測試后發(fā)現,這些工具的主要功能是“軟文生成與分發(fā)”,購買者可根據自身需要,將希望在生成式搜索中呈現的產品和品牌名生成軟文,并“一鍵分發(fā)”到各大內容平臺。
加強規(guī)范引導 防止用戶誤判
中國互聯網絡信息中心2025年10月發(fā)布的《生成式人工智能應用發(fā)展報告(2025)》顯示,截至2025年6月,我國生成式人工智能用戶規(guī)模達5.15億人,普及率已達到36.5%。生成式人工智能被廣泛應用于智能搜索、內容創(chuàng)作、辦公助手等場景。明確人工智能學習結果與廣告的界限顯得愈發(fā)重要。
我國廣告法規(guī)定,廣告應當具有可識別性,能夠使消費者辨明其為廣告;通過大眾傳播媒介發(fā)布的廣告應當顯著標明“廣告”,與其他非廣告信息相區(qū)別,不得使消費者產生誤解。
中國電子技術標準化研究院網安中心測評實驗室副主任何延哲等專家建議,參考此前在搜索引擎優(yōu)化的相關經驗,可要求各廠商在生成式引擎優(yōu)化的結果中明確加注“廣告”,防止用戶誤判。
同時,要壓實內容平臺的主體責任,禁止在平臺上發(fā)布虛假信息。
2023年,國家網信辦等七部門聯合發(fā)布《生成式人工智能服務管理暫行辦法》,明確規(guī)定,提供和使用生成式人工智能服務,不得生成虛假有害信息等法律、行政法規(guī)禁止的內容;提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性。
中國通信學會數據安全專業(yè)委員會副主任委員左曉棟建議,各大內容分發(fā)平臺應利用人工智能等技術,對包括假榜單、假報告、假專家等內容進行清除并標注相應內容生產者,在行業(yè)內共享“炮制虛假內容黑名單”,防止不法廠商借炮制虛假信息來實現生成式引擎優(yōu)化。
隨著AI技術的發(fā)展,相關行業(yè)標準和法律法規(guī)也需要進一步完善。北京世輝律師事務所合伙人王新銳等法律界人士建議,有關部門可根據生成式引擎優(yōu)化面臨的現實問題,指導相關機構有針對性地完善行業(yè)標準,讓行業(yè)在規(guī)范中發(fā)展。
(經參調查線索征集郵箱:13810799287@163.com)

