優(yōu)勝從選擇開始,我們是您最好的選擇!—— 中州期刊聯(lián)盟(新鄉(xiāng)市博翰文化傳媒有限公司)
0373-5939925
2851259250@qq.com
我要檢測 我要投稿 合法期刊查詢

新媒體環(huán)境下智能算法推薦技術(shù)的新聞倫理思考

作者:李鍇來源:《聲屏世界》日期:2024-11-06人氣:590

算法推薦滿足大眾對定制化信息的需求

隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展,智能移動設(shè)備的普及,受眾已經(jīng)擺脫了以往傳統(tǒng)的信息接收方式的種種限制,從而可以實現(xiàn)隨時隨地的獲取自己需要的信息。信息傳播技術(shù)的發(fā)展,傳播主體的增多,也導(dǎo)致信息總量的極大豐盈,如何抓住受眾的注意力就成為媒體思考的首要問題。算法推薦是通過大數(shù)據(jù)技術(shù),將受眾的信息搜索、信息瀏覽等數(shù)據(jù)進行收集、分析和比較,了解受眾喜歡的信息類型,信息接受習(xí)慣,從而對每個用戶進行精準的用戶畫像。根據(jù)受眾的興趣和信息需求,進行新聞信息的個性化推送,以此來滿足了人們對信息的個性化需求,同時極大提升人們獲取信息的效率。

當受眾接收到個性化的推送信息時,算法系統(tǒng)會根據(jù)用戶在各類型信息的瀏覽時間、評論、舉報、轉(zhuǎn)發(fā)等互動行為,進一步精確受眾的興趣愛好,探尋用戶的信息尋求規(guī)律,從而對用戶的信息需求和信息態(tài)度實現(xiàn)更加全面和精準分析和考量。通過持續(xù)搜集用戶行為數(shù)據(jù),不僅可以明確用戶當前的信息需求和喜好,還可以對其未來的信息需求進行預(yù)測和推斷,使平臺的信息分發(fā)能夠與受眾的需求保持高度一致。其次,這樣精準的反饋還能夠幫助信息平臺進一步地了解受眾的經(jīng)濟水平、認知水平以及消費模式,完善對用戶的畫像。在這個信息爆炸的時代,智能的算法推薦技術(shù)能夠幫助人們節(jié)省時間和精力,滿足人們的個性化的信息需求。

智能算法推薦技術(shù)引發(fā)新聞倫理失范

“信息繭房” 導(dǎo)致用戶認知失真“信息繭房”這一概念自算法推薦技術(shù)問世以來,就成為了學(xué)者們熱議的話題。究其根本,這一理論關(guān)注的是信息媒介如何通過精準的用戶畫像,按照用戶的興趣偏好來推送信息。長期以往,受眾可能會沉迷于這種定制化的信息環(huán)境,以至于忽視了那些真正有價值的信息和內(nèi)容。

更為嚴重的是,長期處于一個相同的意見氛圍之下,會強化人們對某一觀點或態(tài)度的認知,產(chǎn)生一種“回音壁”效應(yīng)。當相同的聲音或觀點不斷在受眾耳邊回蕩時,這無疑會對他們?nèi)娴卣J知世界造成困擾。就如同被困在自我構(gòu)建的信息繭房中,只能聽到自己喜好的聲音,而無法接觸到其他有價值的信息和多元化的觀點。

這種現(xiàn)象在社交媒體和新聞應(yīng)用中尤為明顯。通過算法推薦技術(shù),這些平臺能夠根據(jù)用戶的瀏覽歷史、點擊行為和偏好來推送相應(yīng)的內(nèi)容。雖然這種個性化的推薦能夠提高用戶的使用體驗,但也可能導(dǎo)致用戶的信息環(huán)境越來越狹窄,使得他們無法接觸到不同的觀點和意見。

“信息繭房”的負面影響不僅限于個人的視野和認知。從更宏觀的角度來看,如果一個社會的大部分人都被困在自我構(gòu)建的信息繭房中,那么公眾的輿論環(huán)境就可能變得單一化,甚至可能引發(fā)社會撕裂和沖突。因為當人們只能接觸到和自己意見相同的觀點時,他們可能會對其他群體產(chǎn)生誤解和偏見,進而導(dǎo)致社會的不和諧。

算法推薦侵犯個人數(shù)據(jù)與隱私。隨著社會的發(fā)展,公眾媒介的接觸變得越來越頻繁;同時,隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展,移動智能設(shè)備的普及,讓信息的記錄和存儲都變得輕而易舉,民眾通過互聯(lián)網(wǎng)進行的每一次操作都會變成一行代碼,被上傳至大數(shù)據(jù)平臺當中。在大數(shù)據(jù)時代,每一個社會公眾都是透明的,民眾對于個人信息的保護變的愈發(fā)困難的同時,個人隱私被侵犯的機率也大大增加。

近些年來,算法推薦技術(shù)一直受到國內(nèi)外新聞媒體APP和各類社交媒體的追捧,通過智能機器人來抓取用戶的瀏覽信息、搜索記錄、頁面停留時間、點贊,評論,轉(zhuǎn)發(fā)等互動行為的數(shù)據(jù),通過此類數(shù)據(jù)對用戶畫像進行勾勒,從而進行精準的信息分發(fā)。但是,當民眾為了自身尋求信息的便利,在一個個授權(quán)提醒的彈窗下點擊同意時,也就讓渡了自己的隱私權(quán)。民眾的一舉一動都轉(zhuǎn)化為數(shù)據(jù)被上傳至了后臺,但是公眾無從知曉,這種操作的不透明使一些平臺催生以用戶的隱私來換取經(jīng)濟利益的想法。當社會公眾在信息平臺上想要了解某個商品,從而對其進行搜索,下一秒,這個商品就會出現(xiàn)在購物APP的首頁上并且會通過信息彈窗這種形式推送到受眾的面前。

智能算法推薦技術(shù)的設(shè)計初衷在于提升人們獲取信息的效率。通過收集和分析用戶數(shù)據(jù),該技術(shù)旨在深入了解受眾的需求和喜好,以便更好地為用戶提供定制化的信息推薦服務(wù),從而成為用戶信賴的伙伴。當用戶逐漸開始接納這位朋友,相互的了解進一步的加深,為了商業(yè)利益的考量變得不那么忠誠。人工智能技術(shù)的確給人類社會帶來了極大的便利,促進了信息社會的發(fā)展。但同時,它也對人的隱私權(quán)造成了極大的侵害。

算法推薦導(dǎo)致虛假新聞 低俗信息泛濫。智能算法推薦技術(shù),作為一種客觀的數(shù)學(xué)表達,本應(yīng)純粹以數(shù)據(jù)和算法為基礎(chǔ),不摻雜任何獵奇、偏見、歧視等不良因素。然而,回顧我們所處的信息環(huán)境,可以看到獵奇、低俗的新聞和信息廣泛流傳,充斥著我們的社交媒體平臺和新聞網(wǎng)站。這種現(xiàn)象應(yīng)該引起我們的關(guān)注和反思,以確保信息傳播的公正、客觀和優(yōu)質(zhì)。算法偏見其實是指,在客觀的算法程序的研發(fā)當中,參與研發(fā)的人員本身帶有的偏見和歧視的色彩,畢竟程序可以是客觀的,但是人在改造客觀世界時不可能做到完全的客觀,必然帶有一定的主觀傾向。其次,算法偏見也有可能是采用的數(shù)據(jù)具有某些傾向性。畢竟,智能算法就是通過對數(shù)據(jù)的采集和挖掘,進而對數(shù)據(jù)進行分析和總結(jié),數(shù)據(jù)的體量大小,準確性都會對算法程序造成影響。同時,算法研究人員的選取的數(shù)據(jù)分布狀況,對算法進行的測試都有可能使主觀的偏見披上技術(shù)客觀的外衣。

如果研發(fā)算法程序的程序員本身就帶有某種偏見或傾向,那么算法程序本身就不可能是客觀的。況且,算法研究的背后還是媒體機構(gòu)在主導(dǎo),那么一些商業(yè)媒體機構(gòu)為了自己經(jīng)濟利益的考量,吸引流量,或許在推薦算法研究之初,就會為那些獵奇、低俗的信息留有后門。即使這些信息不是受眾主動尋求的,但當其出現(xiàn)在受眾的視野中,人們還是會無法抵抗獵奇心理的誘惑,將大量的時間和精力花費在它們身上。這種低俗信息的傳播不但會危害受眾個人的價值取向,還會對整個社會的信息傳播環(huán)境造成惡劣影響。 

如何克服算法推薦對新聞倫理的沖擊

明確算法推薦中的“主流價值”觀念。在推薦算法應(yīng)用之初,就引起了很多的爭論與指責(zé)。一些互聯(lián)網(wǎng)通過技術(shù)中立,算法無罪等論調(diào)來為自己辯護,聲稱算法推薦只是對信息進行分發(fā),并不會對信息內(nèi)容進行加工。因此,把關(guān)就顯得沒有必要。但這是正是利用工具的理性來為逐利行為打掩護,技術(shù)中立并不意味著價值中立,當前算法推薦為虛假新聞和低俗信息助推的局面正是因為算法推薦背后的價值觀出現(xiàn)了偏差。作為客觀的數(shù)學(xué)表達的算法程序,雖然不具備價值觀,但當它介入到新聞生產(chǎn)中時,算法背后的媒介平臺和算法的研發(fā)者,便應(yīng)當承擔(dān)起自身的社會責(zé)任和價值導(dǎo)向。在算法研發(fā)時,應(yīng)該在保證算法可行性的基礎(chǔ)上,將健康的“主流價值”刻入到算法之中。

首先,可以在關(guān)鍵詞上下功夫。對于新聞生產(chǎn)過程中的關(guān)鍵詞,我們應(yīng)該減少那些低俗、獵奇的內(nèi)容出現(xiàn),多分發(fā)一些積極、健康的信息內(nèi)容。通過優(yōu)化關(guān)鍵詞的篩選機制,我們可以有效地抑制不良信息的傳播,提高新聞的質(zhì)量和價值。

其次,使算法推薦更加多元化。算法推薦不能僅僅以受眾的興趣和愛好為準則,而應(yīng)該為受眾推送更加多元化的信息內(nèi)容,打造一個全面的信息空間。例如,對于同一事件或主題,我們可以從不同的角度和視點來報道和分析,讓受眾了解到事情的多面性和復(fù)雜性。這樣不僅可以提高受眾的信息素養(yǎng),還可以促進社會的多元思考和交流。

此外,對于算法的評估和監(jiān)督也至關(guān)重要。應(yīng)該建立一套科學(xué)、公正、客觀的評價體系,對算法的推薦結(jié)果進行定期評估和監(jiān)督。如果發(fā)現(xiàn)算法存在偏差或誤判,我們應(yīng)該及時修正和調(diào)整。同時,我們也需要加強對算法研發(fā)者的培訓(xùn)和教育,提高他們的職業(yè)素養(yǎng)和社會責(zé)任感。

增強算法設(shè)計中的把關(guān)意識 提升算法“透明度”。算法的運行規(guī)則、數(shù)據(jù)的搜集和處理都會包含著算法研究者的主觀傾向,他們個人的倫理和道德標準都會潛移默化的植入到算法程序當中,對信息的分發(fā)造成影響。如果算法的研究者缺乏了對價值理性的思考,那么算法在新聞領(lǐng)域的發(fā)展就會受到限制。因此,算法的研究在設(shè)計算法的底層邏輯時,就必須以健康的價值觀為引領(lǐng),遵守社會的道德和價值準則。同時,也應(yīng)該對算法的研究者進行把關(guān),對其資質(zhì)和品性進行審查,如果研究者本身的倫理道德就出現(xiàn)了問題,那么其研究出的算法必然在倫理道德產(chǎn)生偏離。其次,還需要對算法的研究者加強新聞專業(yè)知識和新聞倫理道德的培訓(xùn),減少算法偏見。

算法的“透明度”也是值得關(guān)注的問題。算法設(shè)計的技術(shù)門檻較高,其專業(yè)性和復(fù)雜性讓普通的民眾無法對它的運行機制進行透明化的監(jiān)督,即使是算法的設(shè)計者對其產(chǎn)生的結(jié)果也不能實現(xiàn)完全的把控。因此,民眾開始呼吁相關(guān)的管理機構(gòu)介入算法平臺的研究之中,對算法的研究流程建立一套完整的監(jiān)督體系。在一些涉及到受眾關(guān)鍵利益信息、隱私信息等環(huán)節(jié),在不涉及商業(yè)機密的情況下,應(yīng)該將算法目的和流程公之于眾,接收社會大眾的輿論監(jiān)督。

制定完善相關(guān)法律法規(guī) 嚴懲違規(guī)創(chuàng)作行為。為了解決算法推薦所引起的弊端,我們應(yīng)從兩個方面著手。一方面,對算法推薦技術(shù)進行內(nèi)部的制約規(guī)定;另一方面,從外部進行強有力的法律制約。

從算法推薦技術(shù)的規(guī)定制約看,算法推薦技術(shù)的開發(fā)者應(yīng)該制定相應(yīng)的規(guī)范和準則,以確保算法在推薦內(nèi)容時能夠遵循公平、公正、透明、負責(zé)任的原則。這些規(guī)范和準則應(yīng)該明確算法推薦的具體流程、標準和方法,以及在出現(xiàn)不公正、不透明、不負責(zé)任的推薦結(jié)果時應(yīng)該采取的措施。同時,算法推薦技術(shù)的開發(fā)者還應(yīng)該加強對算法的審查和監(jiān)督,確保算法在運行過程中不會出現(xiàn)偏見、歧視等問題。

從外部的法律制約方面來看,政府應(yīng)該加強對算法推薦的監(jiān)管力度,制定更加嚴格的法律法規(guī),以規(guī)范算法推薦技術(shù)的使用。法律法規(guī)應(yīng)該明確對算法推薦的違規(guī)行為進行定義和分類,并規(guī)定相應(yīng)的處罰措施。此外,政府還應(yīng)該加強對新聞事業(yè)的監(jiān)管力度,建立新聞失范黑名單,對低質(zhì)量、媚俗內(nèi)容的傳播主體和傳播平臺進行懲治和處罰。

為了確保新聞事業(yè)的長期健康發(fā)展,需要在不斷完善算法推薦技術(shù)的同時,加強對低質(zhì)量、媚俗內(nèi)容的懲治和處罰力度。新聞相關(guān)部門可以建立新聞失范黑名單,通過自主監(jiān)察、輿情監(jiān)測、用戶舉報等多種途徑形成合力,及時發(fā)現(xiàn)并清理低俗、低質(zhì)量的傳播內(nèi)容。對于違規(guī)的新聞創(chuàng)作者或傳播平臺,應(yīng)該采取相應(yīng)的警告、處罰措施,必要時甚至可以清退相關(guān)賬號。只有提高新聞創(chuàng)作者的準入門檻,才能確保更高質(zhì)量、更負責(zé)任的新聞信息在傳播渠道中得以傳遞。

此外,我們還可以通過教育和宣傳來提高公眾對高質(zhì)量新聞的認知和意識。政府和社會各界應(yīng)該加強對公眾的引導(dǎo)和教育,讓公眾認識到高質(zhì)量新聞的重要性,并培養(yǎng)公眾對低質(zhì)量新聞的鑒別能力。同時,新聞媒體也應(yīng)該加強自身的自律機制建設(shè),提高新聞從業(yè)人員的專業(yè)素養(yǎng)和道德水平,以更好地服務(wù)于公眾。

總之,解決算法推薦所引起的弊端需要從多個方面入手。我們需要從內(nèi)部和外部兩個方面來制約規(guī)定算法推薦技術(shù);加強對低質(zhì)量、媚俗內(nèi)容的懲治和處罰力度;提高新聞創(chuàng)作者的準入門檻;以及通過教育和宣傳來提高公眾對高質(zhì)量新聞的認知和意識。只有這樣,我們才能確保新聞事業(yè)的長期健康發(fā)展,為公眾提供更高質(zhì)量、更負責(zé)任的新聞信息。 

結(jié)語

算法推薦技術(shù)為信息生產(chǎn)和傳播環(huán)境帶來了重大變革,為人們的信息尋求提供了極大的便利。然而,由于算法本身的局限性、設(shè)計者存在主觀偏見、缺乏審查機制等原因,也對信息傳播環(huán)境造成了極大的影響,甚至逐步威脅著新聞倫理道德。針對當前信息傳播環(huán)境中存在的問題,國家已經(jīng)出臺了相關(guān)政策來治理算法帶來的種種問題。下一步,除了進一步完善相關(guān)的法律法規(guī),加強對算法研究平臺的審查外,還應(yīng)該采取措施提升民眾的媒介素養(yǎng),以淡化算法對新聞倫理造成的沖擊。在實踐中,可以加強對算法技術(shù)的研究和探索,以進一步了解其優(yōu)缺點。同時,應(yīng)該建立健全的審查機制,對算法進行嚴格的監(jiān)管和審查,以避免潛在的風(fēng)險和負面影響。此外,政府和相關(guān)機構(gòu)可以加強對算法平臺的監(jiān)管和規(guī)范,以確保算法技術(shù)的合理使用和發(fā)展。同時,應(yīng)該鼓勵媒體和傳播行業(yè)加強自律和規(guī)范,遵循新聞倫理和道德準則,以確保信息的公正、客觀和真實傳播。

綜上所述,算法推薦技術(shù)對信息傳播環(huán)境帶來了深刻的影響,需要采取綜合措施來治理其中存在的問題。除了法律和監(jiān)管措施外,提升民眾的媒介素養(yǎng)也是重要的途徑之一。


文章來源:  《聲屏世界》   http://m.xwlcp.cn/w/xf/24481.html

網(wǎng)絡(luò)客服QQ: 沈編輯

投訴建議:0373-5939925????投訴建議QQ:

招聘合作:2851259250@qq.com (如您是期刊主編、文章高手,可通過郵件合作)

地址:河南省新鄉(xiāng)市金穗大道東段266號中州期刊聯(lián)盟 ICP備案號:豫ICP備2020036848

【免責(zé)聲明】:中州期刊聯(lián)盟所提供的信息資源如有侵權(quán)、違規(guī),請及時告知。

版權(quán)所有:中州期刊聯(lián)盟(新鄉(xiāng)市博翰文化傳媒有限公司)

關(guān)注”中州期刊聯(lián)盟”公眾號
了解論文寫作全系列課程

核心期刊為何難發(fā)?

論文發(fā)表總嫌貴?

職院單位發(fā)核心?

掃描關(guān)注公眾號

論文發(fā)表不再有疑惑

論文寫作全系列課程

掃碼了解更多

輕松寫核心期刊論文

在線留言