Innovasjon

Kunstig intelligens bør beskyttes av menneskerettighetene

Kunstig intelligens bør beskyttes av menneskerettighetene

Mennesker går inn i ukjente territorier og tar store sprang inn i verden av kunstig intelligens (AI). Nå har eksperter økende bekymringer for hvordan roboter vil reagere på menneskelige miljøer, noe som fører til spørsmålet om kunstig intelligens skal beskyttes av menneskerettigheter eller ikke.

Selvfølgelig, med avanserte militære eksoskeletter som gir mennesker superkrefter og konstante arbeidsplasser med robotmaskineri, er det klart at roboter er notorisk farlige. Men en matematiker i Oxford spør om roboter trenger beskyttelse mot oss også? Med utviklingen av "sinnene" til maskiner som utvikler seg så nær noe som ikke kan skelnes mellom menneskelig intelligens, kan det kreves nye former for lovgivning for å beskytte roboter mot å lære feil ting fra menneskelig misbruk.

[Bildekilde:Plage]

Du Sautoy mener at når kunstig intelligens nærmet seg sofistikeringsnivåer som er lik menneskelig bevissthet, vil det være vår plikt å sikre maskinens velferd, i likhet med et menneskes.

"Det kommer til et punkt der vi kanskje kan si at denne tingen har en følelse av seg selv, og kanskje er det et terskeløyeblikk der denne bevisstheten plutselig dukker opp,"

Du Sautoy fortalte media på Hays Festival i Hay-on-Wye, Wales denne uken.

"Og hvis vi forstår at disse tingene har et bevissthetsnivå, kan det hende vi må innføre rettigheter. Det er en spennende tid."

Nylige fremskritt innen nevrovitenskap gir en grundig titt på hvordan menneskets hjerne fungerer, og bringer teknologien som er så nær å oppdage hva bevissthet kommer fra, og potensielt avdekke hemmelighetene om hvordan du også kan skape den.

"Det fascinerende er at bevissthet i et tiår har vært noe som ingen har gått noen vei i nærheten av fordi vi ikke visste hvordan vi skulle måle det,"

han sa.

"Men vi er i en gullalder. Det er litt som Galileo med et teleskop. Vi har nå et teleskop i hjernen, og det har gitt oss en mulighet til å se ting som vi aldri har vært i stand til å se før."

Naturligvis bør alle bevisste vesener behandles med den største respekt da nye studier avslører hvordan over negativ stimulering kan føre til galskap, PTSD og mange andre komplikasjoner. Skulle datamaskiner være i stand til å replikere bevissthetens funksjonalitet, reiser det det nysgjerrige spørsmålet om AI kan reagere dårlig på negative situasjoner, omtrent på samme måte som andre bevisste vesener gjør.

"Jeg tror det er noe i hjerneutviklingen som kan være som et kokepunkt. Det kan være et terskeløyeblikk,"

sa Sautoy.

"Filosofer vil si at det ikke garanterer at den saken virkelig føler noe og virkelig har en følelse av selvtillit. Det kan bare være å si alle tingene som får oss til å tro at den lever. Men selv hos mennesker kan vi ikke vite det det en person sier er virkelig. "

Å skyve 'kokepunktet' til en datamaskin kan potensielt føre til at AI slår ut for å beskytte seg selv, omtrent som det naturlige overlevelsesinstinktet som alle bevisste vesener har. En bestemt live felt test utført av Microsoft avdekket potensielle problemer med mennesker som misbruker læringsalgoritmer og AI.

Microsoft forsøkte å snakke med tusenårene ved hjelp av en AI-bot lastet opp til en Twitter-konto som resulterte i en slags nedsmelting. Boten startet med å hilse på verden med en nydelig melding om å slå mot etniske grupper og støtte terrorisme. Boten tok raskt opp negativitetsinnuendoet som ble utløst av Twitter-brukere, ødeleggte bot og tvang Microsoft til å stenge kontoen. Du kan lese litt mer om Tay AI-fiaskoen her.


TayTweets, Microsofts offisielle AI-bot som ble fra god til veldig, veldig dårlig [Bildekilde: Twitter]

Bekymringen er fortsatt at hvis en AI-bot online slo ut mot verden, kan en robot med dødelige komponenter også true menneskeheten? Etter hvert som teknologien kryper nærmere å skape et AI-system som minner om menneskelig bevissthet, er det ekstremt sannsynlig at AI-roboter vil bli endret i grunnloven for å beskytte dem mot traumatiske opplevelser, og potensielt forhindre at en terminatorstilsmelting oppstår.

Enig i denne artikkelen? Har du noe å legge til? Gi oss beskjed i kommentarseksjonen nedenfor hvordan du føler om potensielle lover som beskytter roboter med menneskerettigheter.

SE OGSÅ: Microsofts Ai Bot Turned Racist After Hours på Internett

Skrevet av Maverick Baker


Se videoen: DEEP LEARNING-ALGORITME SKAL SLÅ MENNESKET I STARCRAFT (November 2021).