我想看一级黄色片_欧美性爱无遮挡电影_色丁香视频网站中文字幕_视频一区 视频二区 国产,日本三级理论日本电影,午夜不卡免费大片,国产午夜视频在线观看,18禁无遮拦无码国产在线播放,在线视频不卡国产在线视频不卡 ,,欧美一及黄片,日韩国产另类

首頁(yè) 500強(qiáng) 活動(dòng) 榜單 商業(yè) 科技 領(lǐng)導(dǎo)力 專(zhuān)題 品牌中心
雜志訂閱

NASA為何要將AI機(jī)器人送上火星?

在帶來(lái)生存威脅的同時(shí),人工智能還會(huì)帶來(lái)商業(yè)福利,,如更高的效率、更高的利潤(rùn)率和更多的休閑時(shí)間,。

文本設(shè)置
小號(hào)
默認(rèn)
大號(hào)
Plus(0條)

在這張美國(guó)國(guó)家航空航天局(NASA)提供的圖片中,,2021年2月18日,在加利福尼亞州帕薩迪納的美國(guó)國(guó)家航空航天局噴氣推進(jìn)實(shí)驗(yàn)室,,美國(guó)國(guó)家航空航天局“毅力號(hào)”火星車(chē)團(tuán)隊(duì)成員在航天器成功著陸火星傳回第一批圖像時(shí)做出上述反應(yīng),。圖片來(lái)源:BILL INGALLS/NASA VIA GETTY IMAGES

自ChatGPT于2022年年底發(fā)布以來(lái),許多新聞媒體都報(bào)道了人工智能帶來(lái)的倫理威脅,??萍紝?zhuān)家警告說(shuō),機(jī)器人殺手決心要滅絕人類(lèi),,而世界經(jīng)濟(jì)論壇則預(yù)測(cè),,機(jī)器將搶走人類(lèi)的工作。

科技行業(yè)在投資人工智能提高生產(chǎn)力工具的同時(shí),,也在大幅裁員,。好萊塢的編劇和演員正在罷工,以保護(hù)他們的工作和肖像權(quán),。學(xué)者們不斷揭示這些系統(tǒng)是如何加劇現(xiàn)有的偏見(jiàn)或創(chuàng)造毫無(wú)意義的工作——以及無(wú)數(shù)其他問(wèn)題,。

有一種更好的方式將人工智能引入工作場(chǎng)所。作為一名與美國(guó)國(guó)家航空航天局機(jī)器人航天器團(tuán)隊(duì)合作的社會(huì)學(xué)家,,我知道這一方法,因?yàn)槲矣H眼目睹過(guò),。

我研究的科學(xué)家和工程師們正忙著借助配備人工智能的火星車(chē)探索火星表面,。但他們的工作并非科幻小說(shuō)中的幻想。這是一個(gè)機(jī)器智能和人類(lèi)智慧結(jié)合在一起追求共同目標(biāo)的例子,。

這些機(jī)器人不是取代人類(lèi),,而是協(xié)助我們拓展和完善人類(lèi)的特質(zhì)。在此過(guò)程中,,他們避免了常見(jiàn)的道德陷阱,,并為與人工智能合作指明了人道主義路線。

人工智能的替代神話

機(jī)器人殺手和失業(yè)的故事說(shuō)明了“替代神話”是如何主導(dǎo)人們對(duì)人工智能的看法的,。從這個(gè)角度來(lái)看,,人類(lèi)可以而且將會(huì)被機(jī)器自動(dòng)化所取代。

在帶來(lái)生存威脅的同時(shí),,人工智能還會(huì)帶來(lái)商業(yè)福利,,如更高的效率、更高的利潤(rùn)率和更多的休閑時(shí)間,。

經(jīng)驗(yàn)證據(jù)表明,,自動(dòng)化并不能降低成本。相反,,它通過(guò)淘汰地位低下的工人,,增加了留下來(lái)的地位較高的工人的工資成本,從而加劇了不平等。與此同時(shí),,當(dāng)今的生產(chǎn)力工具激勵(lì)員工為雇主多干活,,而不是少干活。

直接替代的替代方案是“混合自主”系統(tǒng),,即人和機(jī)器人協(xié)同工作,。例如,自動(dòng)駕駛汽車(chē)必須經(jīng)過(guò)編程,,才能實(shí)現(xiàn)在實(shí)際路況中與人類(lèi)駕駛員共同駕駛汽車(chē),。之所以說(shuō)自主是“混合的”,是因?yàn)槿祟?lèi)和機(jī)器人在同一個(gè)系統(tǒng)中進(jìn)行相關(guān)操作,,他們的行為會(huì)相互影響,。

然而,混合自主往往被視為邁向替代的一大步驟,。它可能會(huì)導(dǎo)致系統(tǒng)中的人類(lèi)僅僅是訓(xùn)練,、管理或教授人工智能工具。這讓人類(lèi)背上了“幽靈工作”的包袱——程序員們希望機(jī)器學(xué)習(xí)很快就能淘汰那些無(wú)需動(dòng)腦且零碎的任務(wù),。

替代引發(fā)了人工智能倫理方面的危險(xiǎn)信號(hào)。諸如標(biāo)記內(nèi)容以訓(xùn)練人工智能或清理臉書(shū)(Facebook)帖子之類(lèi)的工作通常涉及創(chuàng)傷性任務(wù),,而且是由南半球的低薪勞動(dòng)力完成的,。大批自動(dòng)駕駛汽車(chē)的設(shè)計(jì)者癡迷于“電車(chē)難題”——決定何時(shí)或是否碾壓行人是合乎道德的(一輛有軌電車(chē)駛來(lái),前方的軌道上有5個(gè)人,,片刻之后這5個(gè)人就會(huì)被電車(chē)碾壓致死,;此時(shí)你手邊有一個(gè)拉桿,拉動(dòng)之后電車(chē)會(huì)變道,,這5個(gè)人可以幸免于難,,但變道后的軌道上也有1個(gè)人,這個(gè)人將被電車(chē)碾壓致死,??紤]以上情形,你是否應(yīng)該拉動(dòng)拉桿),。

但我對(duì)美國(guó)國(guó)家航空航天局機(jī)器人航天器團(tuán)隊(duì)的研究表明,,當(dāng)公司拒絕“替代神話”,轉(zhuǎn)而選擇組建人機(jī)團(tuán)隊(duì)時(shí),,人工智能的許多倫理問(wèn)題就會(huì)消失,。

拓展而非替代

強(qiáng)大的人機(jī)團(tuán)隊(duì)在拓展和增強(qiáng)人類(lèi)能力而不是取而代之時(shí)表現(xiàn)更好。工程師們制造出的機(jī)器可以完成人類(lèi)無(wú)法完成的工作,。然后,,他們將機(jī)器和人力巧妙地結(jié)合在一起,,可以朝著共同的目標(biāo)邁進(jìn)。

通常情況下,,這種團(tuán)隊(duì)合作意味著讓機(jī)器人去做對(duì)人類(lèi)身體有危險(xiǎn)的工作,。掃雷、搜救,、太空行走和深海機(jī)器人都是現(xiàn)實(shí)世界中的例子,。

團(tuán)隊(duì)合作還意味著充分利用機(jī)器人和人類(lèi)感官或智能的綜合優(yōu)勢(shì)。畢竟,,機(jī)器人擁有許多人類(lèi)不具備的能力,,反之亦然。

例如,,人類(lèi)在火星上只能看到一直延伸到地平線光線昏暗,、塵土飛揚(yáng)的紅色地形。因此,,工程師在火星車(chē)上配備了相機(jī)濾鏡,,以“看到”人類(lèi)在紅外線中看不到的光的波長(zhǎng),從而傳回色彩艷麗的偽彩色照片,。

與此同時(shí),,火星車(chē)上的車(chē)載人工智能無(wú)法得出科學(xué)發(fā)現(xiàn)。只有將色彩斑斕的傳感器結(jié)果與專(zhuān)家討論相結(jié)合,,科學(xué)家才能利用這些機(jī)器人的眼睛揭開(kāi)火星的新真相,。

尊重?cái)?shù)據(jù)

人工智能面臨的另一項(xiàng)倫理挑戰(zhàn)是如何收集和使用數(shù)據(jù)。生成式人工智能在未經(jīng)藝術(shù)家和作家同意的情況下使用他們的作品進(jìn)行訓(xùn)練,,商業(yè)數(shù)據(jù)集充斥著偏見(jiàn),而ChatGPT在回答問(wèn)題時(shí)會(huì)產(chǎn)生“幻覺(jué)”,。

人工智能訓(xùn)練時(shí)使用這些數(shù)據(jù)在現(xiàn)實(shí)世界中造成的后果包括訴訟和種族定性,。

火星上的機(jī)器人也依靠數(shù)據(jù)、處理能力和機(jī)器學(xué)習(xí)技術(shù)來(lái)完成工作,。但它們需要的數(shù)據(jù)是視覺(jué)和距離信息,,以生成可駕駛路徑或推薦絕妙的新圖像。

通過(guò)關(guān)注它們周?chē)氖澜缍皇俏覀兊纳鐣?huì)世界,,這些機(jī)器人系統(tǒng)避免了困擾當(dāng)今人工智能的監(jiān)視,、偏見(jiàn)和剝削等問(wèn)題。

關(guān)懷倫理

機(jī)器人與人類(lèi)的情感完美融合后,,它們可以通過(guò)激發(fā)人類(lèi)的情感來(lái)團(tuán)結(jié)與之共事的群體,。例如,經(jīng)驗(yàn)豐富的士兵在戰(zhàn)場(chǎng)上悼念損壞的無(wú)人機(jī),,家人會(huì)為他們的掃地機(jī)器人(Roombas)起名并賦予其個(gè)性,。

當(dāng)勇氣號(hào)和機(jī)遇號(hào)探測(cè)器受到火星沙塵暴的威脅時(shí),,我看到美國(guó)國(guó)家航空航天局的工程師們焦慮不安,流下了眼淚,。

與擬人化(將人類(lèi)特征投射到機(jī)器上)不同,,這種感覺(jué)源于對(duì)機(jī)器的關(guān)懷。它是在日?;?dòng),、共同成就和共同承擔(dān)責(zé)任的過(guò)程中形成的。

當(dāng)機(jī)器激發(fā)出關(guān)懷意識(shí)時(shí),,它們就能強(qiáng)調(diào)——而不是削弱——人類(lèi)的特質(zhì),。

更好的人工智能是可能的

在人工智能可能被用來(lái)取代工人的行業(yè)中,技術(shù)專(zhuān)家可能會(huì)考慮如何通過(guò)巧妙的人機(jī)合作來(lái)增強(qiáng)人類(lèi)的能力,,而不是削弱人類(lèi)的能力,。

劇本創(chuàng)作團(tuán)隊(duì)可能會(huì)喜歡能即時(shí)查找對(duì)話或交叉引用的人工代理。藝術(shù)家們可以編寫(xiě)或設(shè)計(jì)自己的算法,,以激發(fā)創(chuàng)造力,,并保留作品的聲譽(yù)。為軟件團(tuán)隊(duì)提供支持的機(jī)器人可以改善會(huì)議溝通效果,,發(fā)現(xiàn)編譯代碼時(shí)出現(xiàn)的錯(cuò)誤,。

當(dāng)然,拒絕替代并不能消除人工智能的所有倫理問(wèn)題,。但是,,當(dāng)替代不再是目標(biāo)時(shí),許多與人類(lèi)生計(jì),、代理和偏見(jiàn)相關(guān)的問(wèn)題就會(huì)發(fā)生轉(zhuǎn)變,。

替代幻想只是人工智能和社會(huì)眾多可能實(shí)現(xiàn)的未來(lái)的一種。畢竟,,如果“機(jī)器人”取代了所有主角,,就沒(méi)人會(huì)看《星球大戰(zhàn)》了。要想對(duì)人類(lèi)與人工智能的未來(lái)有一個(gè)更合乎倫理道德的愿景,,你可以看看那些已在太空和地球上幸存下來(lái)并表現(xiàn)良好的人機(jī)團(tuán)隊(duì),。(財(cái)富中文網(wǎng))

珍妮特·維特西(Janet Vertesi)是普林斯頓大學(xué)社會(huì)學(xué)副教授。

本文依據(jù)知識(shí)共享許可協(xié)議轉(zhuǎn)載自The Conversation,。

譯者:中慧言-王芳

自ChatGPT于2022年年底發(fā)布以來(lái),,許多新聞媒體都報(bào)道了人工智能帶來(lái)的倫理威脅??萍紝?zhuān)家警告說(shuō),,機(jī)器人殺手決心要滅絕人類(lèi),而世界經(jīng)濟(jì)論壇則預(yù)測(cè),,機(jī)器將搶走人類(lèi)的工作,。

科技行業(yè)在投資人工智能提高生產(chǎn)力工具的同時(shí),,也在大幅裁員。好萊塢的編劇和演員正在罷工,,以保護(hù)他們的工作和肖像權(quán),。學(xué)者們不斷揭示這些系統(tǒng)是如何加劇現(xiàn)有的偏見(jiàn)或創(chuàng)造毫無(wú)意義的工作——以及無(wú)數(shù)其他問(wèn)題。

有一種更好的方式將人工智能引入工作場(chǎng)所,。作為一名與美國(guó)國(guó)家航空航天局機(jī)器人航天器團(tuán)隊(duì)合作的社會(huì)學(xué)家,,我知道這一方法,因?yàn)槲矣H眼目睹過(guò),。

我研究的科學(xué)家和工程師們正忙著借助配備人工智能的火星車(chē)探索火星表面,。但他們的工作并非科幻小說(shuō)中的幻想。這是一個(gè)機(jī)器智能和人類(lèi)智慧結(jié)合在一起追求共同目標(biāo)的例子,。

這些機(jī)器人不是取代人類(lèi),,而是協(xié)助我們拓展和完善人類(lèi)的特質(zhì)。在此過(guò)程中,,他們避免了常見(jiàn)的道德陷阱,,并為與人工智能合作指明了人道主義路線。

人工智能的替代神話

機(jī)器人殺手和失業(yè)的故事說(shuō)明了“替代神話”是如何主導(dǎo)人們對(duì)人工智能的看法的,。從這個(gè)角度來(lái)看,,人類(lèi)可以而且將會(huì)被機(jī)器自動(dòng)化所取代。

在帶來(lái)生存威脅的同時(shí),,人工智能還會(huì)帶來(lái)商業(yè)福利,,如更高的效率、更高的利潤(rùn)率和更多的休閑時(shí)間,。

經(jīng)驗(yàn)證據(jù)表明,,自動(dòng)化并不能降低成本。相反,,它通過(guò)淘汰地位低下的工人,,增加了留下來(lái)的地位較高的工人的工資成本,從而加劇了不平等,。與此同時(shí),當(dāng)今的生產(chǎn)力工具激勵(lì)員工為雇主多干活,,而不是少干活,。

直接替代的替代方案是“混合自主”系統(tǒng),即人和機(jī)器人協(xié)同工作,。例如,,自動(dòng)駕駛汽車(chē)必須經(jīng)過(guò)編程,才能實(shí)現(xiàn)在實(shí)際路況中與人類(lèi)駕駛員共同駕駛汽車(chē),。之所以說(shuō)自主是“混合的”,,是因?yàn)槿祟?lèi)和機(jī)器人在同一個(gè)系統(tǒng)中進(jìn)行相關(guān)操作,,他們的行為會(huì)相互影響。

然而,,混合自主往往被視為邁向替代的一大步驟,。它可能會(huì)導(dǎo)致系統(tǒng)中的人類(lèi)僅僅是訓(xùn)練、管理或教授人工智能工具,。這讓人類(lèi)背上了“幽靈工作”的包袱——程序員們希望機(jī)器學(xué)習(xí)很快就能淘汰那些無(wú)需動(dòng)腦且零碎的任務(wù),。

替代引發(fā)了人工智能倫理方面的危險(xiǎn)信號(hào)。諸如標(biāo)記內(nèi)容以訓(xùn)練人工智能或清理臉書(shū)(Facebook)帖子之類(lèi)的工作通常涉及創(chuàng)傷性任務(wù),,而且是由南半球的低薪勞動(dòng)力完成的,。大批自動(dòng)駕駛汽車(chē)的設(shè)計(jì)者癡迷于“電車(chē)難題”——決定何時(shí)或是否碾壓行人是合乎道德的(一輛有軌電車(chē)駛來(lái),前方的軌道上有5個(gè)人,,片刻之后這5個(gè)人就會(huì)被電車(chē)碾壓致死,;此時(shí)你手邊有一個(gè)拉桿,拉動(dòng)之后電車(chē)會(huì)變道,,這5個(gè)人可以幸免于難,,但變道后的軌道上也有1個(gè)人,這個(gè)人將被電車(chē)碾壓致死,??紤]以上情形,你是否應(yīng)該拉動(dòng)拉桿),。

但我對(duì)美國(guó)國(guó)家航空航天局機(jī)器人航天器團(tuán)隊(duì)的研究表明,,當(dāng)公司拒絕“替代神話”,轉(zhuǎn)而選擇組建人機(jī)團(tuán)隊(duì)時(shí),,人工智能的許多倫理問(wèn)題就會(huì)消失,。

拓展而非替代

強(qiáng)大的人機(jī)團(tuán)隊(duì)在拓展和增強(qiáng)人類(lèi)能力而不是取而代之時(shí)表現(xiàn)更好。工程師們制造出的機(jī)器可以完成人類(lèi)無(wú)法完成的工作,。然后,,他們將機(jī)器和人力巧妙地結(jié)合在一起,可以朝著共同的目標(biāo)邁進(jìn),。

通常情況下,,這種團(tuán)隊(duì)合作意味著讓機(jī)器人去做對(duì)人類(lèi)身體有危險(xiǎn)的工作。掃雷,、搜救,、太空行走和深海機(jī)器人都是現(xiàn)實(shí)世界中的例子。

團(tuán)隊(duì)合作還意味著充分利用機(jī)器人和人類(lèi)感官或智能的綜合優(yōu)勢(shì),。畢竟,,機(jī)器人擁有許多人類(lèi)不具備的能力,反之亦然,。

例如,,人類(lèi)在火星上只能看到一直延伸到地平線光線昏暗,、塵土飛揚(yáng)的紅色地形。因此,,工程師在火星車(chē)上配備了相機(jī)濾鏡,,以“看到”人類(lèi)在紅外線中看不到的光的波長(zhǎng),從而傳回色彩艷麗的偽彩色照片,。

與此同時(shí),,火星車(chē)上的車(chē)載人工智能無(wú)法得出科學(xué)發(fā)現(xiàn)。只有將色彩斑斕的傳感器結(jié)果與專(zhuān)家討論相結(jié)合,,科學(xué)家才能利用這些機(jī)器人的眼睛揭開(kāi)火星的新真相,。

尊重?cái)?shù)據(jù)

人工智能面臨的另一項(xiàng)倫理挑戰(zhàn)是如何收集和使用數(shù)據(jù)。生成式人工智能在未經(jīng)藝術(shù)家和作家同意的情況下使用他們的作品進(jìn)行訓(xùn)練,,商業(yè)數(shù)據(jù)集充斥著偏見(jiàn),,而ChatGPT在回答問(wèn)題時(shí)會(huì)產(chǎn)生“幻覺(jué)”。

人工智能訓(xùn)練時(shí)使用這些數(shù)據(jù)在現(xiàn)實(shí)世界中造成的后果包括訴訟和種族定性,。

火星上的機(jī)器人也依靠數(shù)據(jù),、處理能力和機(jī)器學(xué)習(xí)技術(shù)來(lái)完成工作。但它們需要的數(shù)據(jù)是視覺(jué)和距離信息,,以生成可駕駛路徑或推薦絕妙的新圖像,。

通過(guò)關(guān)注它們周?chē)氖澜缍皇俏覀兊纳鐣?huì)世界,這些機(jī)器人系統(tǒng)避免了困擾當(dāng)今人工智能的監(jiān)視,、偏見(jiàn)和剝削等問(wèn)題,。

關(guān)懷倫理

機(jī)器人與人類(lèi)的情感完美融合后,它們可以通過(guò)激發(fā)人類(lèi)的情感來(lái)團(tuán)結(jié)與之共事的群體,。例如,,經(jīng)驗(yàn)豐富的士兵在戰(zhàn)場(chǎng)上悼念損壞的無(wú)人機(jī),家人會(huì)為他們的掃地機(jī)器人(Roombas)起名并賦予其個(gè)性,。

當(dāng)勇氣號(hào)和機(jī)遇號(hào)探測(cè)器受到火星沙塵暴的威脅時(shí),,我看到美國(guó)國(guó)家航空航天局的工程師們焦慮不安,流下了眼淚,。

與擬人化(將人類(lèi)特征投射到機(jī)器上)不同,,這種感覺(jué)源于對(duì)機(jī)器的關(guān)懷。它是在日?;?dòng),、共同成就和共同承擔(dān)責(zé)任的過(guò)程中形成的。

當(dāng)機(jī)器激發(fā)出關(guān)懷意識(shí)時(shí),,它們就能強(qiáng)調(diào)——而不是削弱——人類(lèi)的特質(zhì)。

更好的人工智能是可能的

在人工智能可能被用來(lái)取代工人的行業(yè)中,,技術(shù)專(zhuān)家可能會(huì)考慮如何通過(guò)巧妙的人機(jī)合作來(lái)增強(qiáng)人類(lèi)的能力,,而不是削弱人類(lèi)的能力,。

劇本創(chuàng)作團(tuán)隊(duì)可能會(huì)喜歡能即時(shí)查找對(duì)話或交叉引用的人工代理。藝術(shù)家們可以編寫(xiě)或設(shè)計(jì)自己的算法,,以激發(fā)創(chuàng)造力,,并保留作品的聲譽(yù)。為軟件團(tuán)隊(duì)提供支持的機(jī)器人可以改善會(huì)議溝通效果,,發(fā)現(xiàn)編譯代碼時(shí)出現(xiàn)的錯(cuò)誤,。

當(dāng)然,拒絕替代并不能消除人工智能的所有倫理問(wèn)題,。但是,,當(dāng)替代不再是目標(biāo)時(shí),許多與人類(lèi)生計(jì),、代理和偏見(jiàn)相關(guān)的問(wèn)題就會(huì)發(fā)生轉(zhuǎn)變,。

替代幻想只是人工智能和社會(huì)眾多可能實(shí)現(xiàn)的未來(lái)的一種。畢竟,,如果“機(jī)器人”取代了所有主角,,就沒(méi)人會(huì)看《星球大戰(zhàn)》了。要想對(duì)人類(lèi)與人工智能的未來(lái)有一個(gè)更合乎倫理道德的愿景,,你可以看看那些已在太空和地球上幸存下來(lái)并表現(xiàn)良好的人機(jī)團(tuán)隊(duì),。(財(cái)富中文網(wǎng))

珍妮特·維特西(Janet Vertesi)是普林斯頓大學(xué)社會(huì)學(xué)副教授。

本文依據(jù)知識(shí)共享許可協(xié)議轉(zhuǎn)載自The Conversation,。

譯者:中慧言-王芳

Since ChatGPT’s release in late 2022, many news outlets have reported on the ethical threats posed by artificial intelligence. Tech pundits have issued warnings of killer robots bent on human extinction, while the World Economic Forum predicted that machines will take away jobs.

The tech sector is slashing its workforce even as it invests in AI-enhanced productivity tools. Writers and actors in Hollywood are on strike to protect their jobs and their likenesses. And scholars continue to show how these systems heighten existing biases or create meaningless jobs – amid myriad other problems.

There is a better way to bring artificial intelligence into workplaces. I know, because I’ve seen it, as a sociologist who works with NASA’s robotic spacecraft teams.

The scientists and engineers I study are busy exploring the surface of Mars with the help of AI-equipped rovers. But their job is no science fiction fantasy. It’s an example of the power of weaving machine and human intelligence together, in service of a common goal.

Instead of replacing humans, these robots partner with us to extend and complement human qualities. Along the way, they avoid common ethical pitfalls and chart a humane path for working with AI.

The replacement myth in AI

Stories of killer robots and job losses illustrate how a “replacement myth” dominates the way people think about AI. In this view, humans can and will be replaced by automated machines.

Amid the existential threat is the promise of business boons like greater efficiency, improved profit margins and more leisure time.

Empirical evidence shows that automation does not cut costs. Instead, it increases inequality by cutting out low-status workers and increasing the salary cost for high-status workers who remain. Meanwhile, today’s productivity tools inspire employees to work more for their employers, not less.

Alternatives to straight-out replacement are “mixed autonomy” systems, where people and robots work together. For example, self-driving cars must be programmed to operate in traffic alongside human drivers. Autonomy is “mixed” because both humans and robots operate in the same system, and their actions influence each other.

However, mixed autonomy is often seen as a step along the way to replacement. And it can lead to systems where humans merely feed, curate or teach AI tools. This saddles humans with “ghost work” – mindless, piecemeal tasks that programmers hope machine learning will soon render obsolete.

Replacement raises red flags for AI ethics. Work like tagging content to train AI or scrubbing Facebook posts typically features traumatic tasks and a poorly paid workforce spread across the Global South. And legions of autonomous vehicle designers are obsessed with “the trolley problem” – determining when or whether it is ethical to run over pedestrians.

But my research with robotic spacecraft teams at NASA shows that when companies reject the replacement myth and opt for building human-robot teams instead, many of the ethical issues with AI vanish.

Extending rather than replacing

Strong human-robot teams work best when they extend and augment human capabilities instead of replacing them. Engineers craft machines that can do work that humans cannot. Then, they weave machine and human labor together intelligently, working toward a shared goal.

Often, this teamwork means sending robots to do jobs that are physically dangerous for humans. Minesweeping, search-and-rescue, spacewalks and deep-sea robots are all real-world examples.

Teamwork also means leveraging the combined strengths of both robotic and human senses or intelligences. After all, there are many capabilities that robots have that humans do not – and vice versa.

For instance, human eyes on Mars can only see dimly lit, dusty red terrain stretching to the horizon. So engineers outfit Mars rovers with camera filters to “see” wavelengths of light that humans can’t see in the infrared, returning pictures in brilliant false colors.

Meanwhile, the rovers’ onboard AI cannot generate scientific findings. It is only by combining colorful sensor results with expert discussion that scientists can use these robotic eyes to uncover new truths about Mars.

Respectful data

Another ethical challenge to AI is how data is harvested and used. Generative AI is trained on artists’ and writers’ work without their consent, commercial datasets are rife with bias, and ChatGPT “hallucinates” answers to questions.

The real-world consequences of this data use in AI range from lawsuits to racial profiling.

Robots on Mars also rely on data, processing power and machine learning techniques to do their jobs. But the data they need is visual and distance information to generate driveable pathways or suggest cool new images.

By focusing on the world around them instead of our social worlds, these robotic systems avoid the questions around surveillance, bias and exploitation that plague today’s AI.

The ethics of care

Robots can unite the groups that work with them by eliciting human emotions when integrated seamlessly. For example, seasoned soldiers mourn broken drones on the battlefield, and families give names and personalities to their Roombas.

I saw NASA engineers break down in anxious tears when the rovers Spirit and Opportunity were threatened by Martian dust storms.

Unlike anthropomorphism – projecting human characteristics onto a machine – this feeling is born from a sense of care for the machine. It is developed through daily interactions, mutual accomplishments and shared responsibility.

When machines inspire a sense of care, they can underline – not undermine – the qualities that make people human.

A better AI is possible

In industries where AI could be used to replace workers, technology experts might consider how clever human-machine partnerships could enhance human capabilities instead of detracting from them.

Script-writing teams may appreciate an artificial agent that can look up dialog or cross-reference on the fly. Artists could write or curate their own algorithms to fuel creativity and retain credit for their work. Bots to support software teams might improve meeting communication and find errors that emerge from compiling code.

Of course, rejecting replacement does not eliminate all ethical concerns with AI. But many problems associated with human livelihood, agency and bias shift when replacement is no longer the goal.

The replacement fantasy is just one of many possible futures for AI and society. After all, no one would watch “Star Wars” if the ‘droids replaced all the protagonists. For a more ethical vision of humans’ future with AI, you can look to the human-machine teams that are already alive and well, in space and on Earth.

Janet Vertesi is Associate Professor of Sociology, Princeton University.

This article is republished from The Conversation under a Creative Commons license. Read the original article.

財(cái)富中文網(wǎng)所刊載內(nèi)容之知識(shí)產(chǎn)權(quán)為財(cái)富媒體知識(shí)產(chǎn)權(quán)有限公司及/或相關(guān)權(quán)利人專(zhuān)屬所有或持有,。未經(jīng)許可,禁止進(jìn)行轉(zhuǎn)載,、摘編,、復(fù)制及建立鏡像等任何使用。
0條Plus
精彩評(píng)論
評(píng)論

撰寫(xiě)或查看更多評(píng)論

請(qǐng)打開(kāi)財(cái)富Plus APP

前往打開(kāi)
熱讀文章