<u id="udx2b"></u>

<blockquote id="udx2b"><span id="udx2b"></span></blockquote>
<tfoot id="udx2b"><span id="udx2b"></span></tfoot>

      <u id="udx2b"></u>
      99国产精品免费视频观看8,亚洲高清中文字幕,91在线视频,不卡的无码AV,亚洲熟女视讯2,色墦五月丁香,亚洲天堂av在线免费,亚洲第一成年网
      4006-01-9999
      您當前位置:首頁 > 申論頻道 >申論熱點 > 社會

      申論熱點素材之人工智能的發展

      來源: 山東分院2021-12-22 17:25

      申論熱點材料閱讀

      一、人工智能:

      關于人工智能目前尚無統一的認識,一種廣為接受的觀點認為,人工智能就是研究如何使計算機去做過去只有人才能做的智能工作,使計算機來模擬人的某些思維過程和智能行為,是從追求智能機器到高水平的人機、腦機相互協同和融合,從聚焦個體智能到基于互聯網和大數據的群體智能,它可以把很多人的智能集聚融合起來變成群體智能。

      二、人工智能引出的倫理問題:

      美國國防部高級研究計劃局正在推進兩個項目:“快速輕型機器人”(FLA)和“敵對環境下聯合作戰”(CODE),前者計劃設計一款旋翼機,能夠在沒有外界操控的情況下以極高的速度在城市環境或建筑物內部敏捷地飛行;后者的目標是開發無人飛行器,將能夠在完全與總部失去聯絡的情況下完成一整套攻擊程序----搜索目標、鎖定、跟蹤、攻擊、評估。它們將由可能促成“殺手機器人”的研發。對此,美國加州大學伯克利分校的計算機科學教授SlmrnRueesll認為,這些武器所具備的敏捷性和致命性將讓人類陷入毫無招架之力的境地,“這不是我們多夢想的未來場景”。而來自英國布里斯托爾大學的機器人專家SahinsHauret則表示,公眾無須對人工智能技術的發展感到擔憂。

      三、應對人工智能帶來的倫理問題的措施

      1.完善法律法規,奠定法律監管基礎

      德國監管機構致力于制定無人駕駛汽車應如何設定程序的規范,以解決相關困境,比如為避免意外的發生,是選擇重罰騎自行車者還是重罰超速行駛者。據悉,試行法規由政府指定的委員會起草。該委員會包括倫理學家、法學家及技術專家等多領域專家。在新行法規下,無人駕駛汽車的核心控件的程序必須被編程好,以不計一切代價避免人員受傷或死亡。這就意味著,在無人駕駛汽車發生無可避免的車禍時,汽車的這個控件必須選擇對生命傷害最小化的舉措,即使損壞財產或撞擊路上的動物。同時,該控件不以當事人的年齡、性別和生理狀況作為其行動的參考依據。

      2.建立國際公約約束

      所謂人工智能武器,是指致命自主武器系統,很多科幻電影中出現的戰爭機器人就屬于此類。它與普通武器根本的區別是,不需要人類的直接監督和決策,能夠自動鎖定目標并使用潛在武力予以致命打擊。一個簡單的程序,就會將其改裝成屠殺平民的恐怖機器,其危害性遠遠超過了常規武器。軍火是暴利行業,基于人工智能技術,自主化武器會給殺傷屬性帶來質的變化,必定會誘使軍火行業鋌而走險。目前世界上還沒有嚴格意義上的人工智能武器,人類的監督和決策在武器使用過程中仍必不可少。比如在戰場上發揮了極高軍事應用價值的遠程武裝無人機,雖然高度自動化,集成控制、定位、圖像處理等多種尖端技術,也需要配備專業的軍事技術人員進行操作。但隨著人工智能技術的爆發式發展,技術問題不會再是發展人工智能武器的壁壘,美國的雷神等公司可能已經掌握或正在開發相關技術。

      3.建立人工智能倫理學系的機制

      有學者指出,可以通過制定計算機學習的倫理來明確人工智能倫理學習的方向。人工智能分擔了人類的部分知識和智慧功能,但在最重要的創造性和評審創造性價值方面無法替代,更為重要的是人工智能無法確定自己的進化方向和進化目標,依然是人類的工具。可以將促進和保護種群知識庫發展的行為和關系作為正向的倫理標準,把阻礙和危害種群知識庫發展的行為和關系為負面的倫理規則來構建人工智能的倫理學習機制。但人工智能倫理學習機制的建立規則仍然需要深入討論。

      參考例文:

      人工智能與倫理

      隨著人工智能深入到人們的生活之中,人工智能可能引發的倫理問題日益受到關注,尤其是涉及到人類的基本價值和威脅人類生存的話題。其實,人們對于人工智能的擔憂多半出于對未知事物的恐懼,人工智能作為科技發展的產物不可能解決人類面對的倫理沖突,只是某種程度上放大了這種沖突,人類完全可以采取措施化解人工智能可能帶來的倫理危機。

      化解人工智能的倫理沖突應當建立明確的責任機制。人工智能引發的倫理問題,有一部分是人類潛在價值沖突的具體化,是表現在生活中的價值選擇上的矛盾,責任并不在人工智能技術。比如無人駕駛汽車導致的交通事故,拋開技術本身存在的缺陷,單就在緊急情況下避險導致的人員傷亡來說,即便出現了真實的事故也完全可以按照現實生活中出現的事故來劃分責任,其難點在于人工智能應當承擔的責任損失由誰承擔的問題。這是一個倫理問題,不能單靠技術加以解決。因此,通過立法明確人工智能技術導致的事故責任就成為了解決沖突的必然選擇。

      對人工智能進行倫理規范應建立人工智能的倫理審核與學習機制。人工智能尚不具備感情和自主意識,即便未來通過學習可以獲得獨立思考的能力,其價值取向也可以用人文精神加以引領和規范。聊天機器人之所以會說出“希特勒沒有錯”這樣違反倫理的言論,是因為現實社會里有極少數人仍持有這種認識,這句話通過人工智能說出來顯得驚悚,但并不奇怪,這種表達與網絡上侮辱先烈結構主流價值的言論并無二致。應當避免的是這種言論通過人工智能的快速傳播對整個社會空氣形成危害,實現這一目標需要深入把握人工智能的學習機制,加強人工智能對主流價值的學習,同時建立對機器人的倫理測試機制。

      避免人工智能造成倫理危機應建立人工智能倫理風險防控機制。科學技術是把雙刃劍,人工智能在造福人類的同時也具有威脅人類生存的潛在可能。預防危機的關鍵不在于人工智能本身,而在于掌握和使用技術的人。如果把人工智能用于造福人們的日常生活,帶來的將是非常美妙的前景;而如果將人工智能應用于軍事手段,用人工智能來殺人,則有可能給人類帶來滅頂之災。從這個意義上說,“殺手機器人”的出現并不是對人工智能技術的拷問,而是對人類良知的拷問。避免人工智能成為殺戮人類的工具,建立全人類范圍的人工智能發展的評估和風險防控機制十分必要。

      世界潮流浩浩蕩蕩,順之則昌逆之則亡,科學技術的發展更是一日千里。人工智能已經進入人們的生活,面對人工智能可能引發的倫理問題甚至危及,人們應該形成清醒的認識,正確認識人類自身存在的缺點和不足,進而從容應對和化解人工智能發展帶來的倫理方面的困惑。

      已閱讀28% 查看剩余內容
      關鍵詞: 人工智能工智能的發展申論熱點 編輯:zhaocc
      主站蜘蛛池模板: 亚洲精品久久久口爆吞精| 色欲人妻无码| 中文字幕日产无码| 91福利导航大全| 亚洲AV日韩精品| 中国AV网| 久久久av波多野一区二区| 92久久精品一区二区| 99草草国产熟女视频在线| 欧美精品在线观看视频 | 成全高清在线播放电视剧 | 文成县| 51国产视频| 欧美视频一区| 熟妇人妻一区二区三区四区| 99精品免费久久久久久久久日本 | 东乡县| 红桃视频成人传媒| 永久免费的av在线电影网| 4虎四虎永久在线精品免费| 伊人久久大香线蕉av五月天| 美女综合网| 又大又粗又爽18禁免费看| 欧美日韩在线视频一区| 亚洲AV无码久久久久网站蜜桃 | 亚洲精品A| 人成午夜免费视频在线观看| 男人猛躁进女人免费播放| 精品3p| 通州市| 特黄特色的大片观看免费视频| 性做久久久久久| 亚洲中文字幕一区二区| 鹤峰县| 亚洲乱人伦中文字幕无码| 欧美三级不卡在线观线看高清 | 国产91视频| 日本人妻中文| jjzz亚洲| 亚洲精品无码成人aaa片| 亚洲人BBwBBwBBWBBw|