來源:經(jīng)濟日報
近日,江蘇省科技廳相關(guān)負責人在回應(yīng)媒體關(guān)注時表示,將組織開展科技人員公開發(fā)表論文的自查和主動抽查,并開展科技倫理審查,采取措施防范ChatGPT引發(fā)的學術(shù)不端行為,引導(dǎo)科技人員提高誠信意識。
人工智能作為一種戰(zhàn)略性新興技術(shù),已經(jīng)融入人們的生產(chǎn)生活,正在重構(gòu)生產(chǎn)、分配、交換、消費等經(jīng)濟活動各環(huán)節(jié),極大提高了工作效率,降低生產(chǎn)、管理等成本,并不斷催生新技術(shù)、新產(chǎn)品、新產(chǎn)業(yè)(74.170, 0.64, 0.87%),為經(jīng)濟社會發(fā)展不斷注入新動能。近段時間以來,生成式人工智能的爆發(fā)式應(yīng)用,也引發(fā)了人們對其安全性、可靠性的廣泛關(guān)注。
面對生成式人工智能為人類經(jīng)濟社會發(fā)展帶來的無限可能,我們應(yīng)該積極擁抱這一新機遇。而對其帶來的新問題,也要加以重視、積極應(yīng)對,從技術(shù)、倫理、法律等多方面設(shè)置“安全閥門”,防范生成式人工智能帶來的風險,共同推動生成式人工智能健康發(fā)展。
防范生成式人工智能風險,源頭在于進一步完善相關(guān)法律法規(guī)的界定。在法律上劃出生成式人工智能發(fā)展不可逾越的紅線,并列明具體的負面清單。同時,加快立法進程,針對數(shù)據(jù)、內(nèi)容安全、知識產(chǎn)權(quán)等生成式人工智能發(fā)展的關(guān)鍵問題,進行分類管理、分類立法,通過政策立法對生成式人工智能的設(shè)計、演進進行有效引導(dǎo)、統(tǒng)籌管理。
防范生成式人工智能風險,核心在于確定底線,提升外部監(jiān)督監(jiān)管力度。要加快制定相應(yīng)的技術(shù)使用規(guī)則和應(yīng)急處理措施,強化對應(yīng)用生成式人工智能的企業(yè)、平臺的監(jiān)管和約束,建立完整的安全評估規(guī)范和管理流程規(guī)范,定期檢查評估,及時發(fā)現(xiàn)和處理違規(guī)行為,保障數(shù)據(jù)安全及隱私安全,防止技術(shù)濫用造成損失,確保其符合法律法規(guī)和社會公德。
防范生成式人工智能風險,重點在于強化引導(dǎo)企業(yè)、平臺和個人加強自我約束。企業(yè)應(yīng)增強底線意識,在技術(shù)開發(fā)環(huán)節(jié),遵循人工智能開發(fā)原則,遵循基本的社會價值規(guī)范和公共道德,承擔相應(yīng)的社會責任,不觸犯相關(guān)法律法規(guī);軟件平臺要嚴格檢驗應(yīng)用權(quán)限,確保用戶使用的安全性;個人用戶要加強自我約束意識和行動,提升技術(shù)使用素養(yǎng),培養(yǎng)正確認識、合理使用技術(shù)的能力。