Car-tech

Forespråkere av begrepet singularitet forestiller en fremtid hvor mennesker og teknologi fullt konvergerer, men en hovedtaleren på konferansen om verdenskonferanseforeningen uttrykte skepsis over ideen, og citerer kompleksiteten til menneskelige tanker.

The Choice is Ours (2016) Official Full Version

The Choice is Ours (2016) Official Full Version
Anonim

Wendell Wallach, en lærer ved Yale Universitetets tverrfaglige senter for bioetikk, støtter teknologi, men merker seg selv en "vennlig skeptiker" på dette ekteskapet av mennesker og maskiner.

Mens han er "begeistret av hvor vitenskapen tar oss," sa Wallach, som talte torsdag på World Future Society i Boston, en "skeptiker fordi vi ikke" Jeg vet ikke nok om at mennesker skal trekke den av. "

Wallachs kritikk av singularitet fokusert på områder, inkludert forståelse av sinnets intricacies, kompleksiteten i å utvikle roboter med moral og spørsmålet om hvem som er ansvarlig når en robots moral er problematisk.

Singularitetsbevegelsen innebærer at utviklingen av datamaskinen vil føre til videre utvikling av det menneskelige sinn, siden det også er en datamaskin.

Wallach motsatte seg at hjernen er engasjert i massiv parallell tenkning, og at forskere ikke fullt ut forstår hvordan denne delen av kroppen fungerer. Han sammenlignet denne evnen til en datamaskin, der "en bit er ute og Windows låses opp," sa han.

Han sa også at datamaskiner står overfor barrierer når det gjelder visjon, språk og lokomotiv. vet ikke hvilken av disse utfordringene vi vil mestre om 20 år. Noen vil være tak, sier han.

Selv om kroppens detaljerte biologiske interaksjoner kan kopieres i en maskin, kan datamaskiner kreve bevissthet for å fullføre oppgaver, Sa Wallach. Men vi forstår ikke fullt ut menneskets kompleksitet, slik at vi ikke vet hvor vanskelig det vil være å innstille bevisstheten i en datamaskin, sa han.

I tillegg, som roboter håndterer flere autonome oppgaver, kan de kreve moral og sosialt ferdigheter, sa Wallach.

Innføring av moral i maskiner løfter spørsmålet om hvem moralen blir brukt og hvordan maskiner lærer deres etos. Programmering av moral kan gjøre roboter ubøyelig, samtidig som en maskin til å lære på egen hånd av erfaring kan overvelde enheten når den må ta en beslutning.

Sosiale ferdigheter vil vise seg verdifulle hvis en robot ble tildelt for å levere medisin til en pasient og kan fortelle om personen var redd, for eksempel sa Wallach.

Opprette en robot med sosiale ferdigheter og moral, øker muligheten til å skape roboter som egentlig er menneskelige. Hvis en robot ser menneskelig ut og har verdier, har den samme rettigheter som mennesker?

"Hvordan straffer du en robot? Hva gjør du? Trekk ut støpselet sitt? Batteriet?" sa han.

Og når en robots moral svikter det, noe som resulterer i skade eller død, hvem er ansvarlig for bortfallet? Wallach er klart at onus skal ligge hos enhetens opphavsmann.

"Kompleksiteten til datamaskiner frigjør ikke skapere fra effekten av teknologien," sa han.

Til tross for problemene som følger med teknologi, kan samfunnet ikke stoppe dens utvikling, sa wallach. Men ved hjelp av teknologi for å gi folk evner som ikke er funnet i sine gener, blir spørsmålet om hvorvidt prosessen vil føre til forbedret evolusjon eller evolusjon, sa han.

"Oppdager vi menneskets art som vi kjenner det ut av eksistensen ?" Wallach sa.

En vurdering av teknologi kan bestemme risiko og belønninger, sa Wallach. Imidlertid er "risikovurderingsverktøyene svært svake" og han foreslo etableringen av et system som bestemmer når "nær farer er i horisonten".

Mens roboter med moral presenterer langsiktige teknologiproblemer, ønsker Wallach i nær fremtid et dypere blikk på hvordan mennesker og teknologi utvikler seg. "Alle erkjenner at vi er midt i en enorm teknologi og menneskeskift" han sa. "Vi ser ingen på dette i stor grad. Vi må tenke på de ulike vilkårene for hvordan denne teknologiske utviklingen vil finne sted, nær fremtid, langsiktig."