Skip to main content

Hva er den teknologiske singulariteten?

Teknologisk singularitet , eller ganske enkelt singularitet, er et mangesidig konsept i futurisme med flere overlappende og noen ganger motstridende definisjoner.Den mest rette og fremtredende definisjonen av singulariteten ble gitt av Vernor Vinge i essayet hans, Den kommende teknologiske singulariteten .Det refererer til det punktet hvor overmenneskelig intelligens opprettes teknologisk.Disse overmenneskelige intelligensene kan da bruke hjernekraft og kompetanse på oppgaven med å skape flere eller kraftigere overmenneskelige intelligenser, noesentrum av et svart hull, der naturkreftene blir så intense og uforutsigbare at vår evne til å beregne atferden til materie under disse omstendighetene synker til null.Ofte nevnt i forbindelse med ideen om overmenneskelig intelligens i singularitetsdialoger er forestillingen om å akselerere teknologisk endring.Noen har hevdet at når skråningen av teknologisk fremgang øker, vil den kulminere i en asymptot, lignende visuelt som en matematisk singularitet.

Imidlertid er denne forestillingen om singulariteten ikke den samme som vinge ment;med henvisning til fremveksten av overmenneskelig intelligens, sammen med overmenneskelige tenkningshastigheter.(Inkludert smarthet, evne til å forstå og lage konsepter, gjøre data til teorier, lage analogier, være kreative og så videre.) Selv om overmenneskelige intelligenser som skaper ytterligere overmenneskelige intelligenser, vil faktisk resultere i akselerasjonen av teknologisk fremgang, fremgang ikke ville bli uendelig,i den forstand at en matematisk singularitet antyder.

fordi overmenneskelige intelligenser per definisjon ville være smartere enn noe menneske, er vår evne til å forutsi hva de vil være i stand til med en gitt mengde tid, materie eller energi er usannsynlig å gjørevære nøyaktig.En overmenneskelig intelligens kan være i stand til å lage en fungerende superdatamaskin av billige og lett tilgjengelige komponenter, eller utvikle fullverdig nanoteknologi uten annet enn et atomkraftmikroskop.Fordi en overmenneskelig intelligens til å designe og produsere teknologiske dingser raskt ville overgå den beste innsatsen fra menneskelige ingeniører, kan en overmenneskelig intelligens være den siste oppfinnelsen som menneskeheten noen gang trenger å gjøre.På grunn av deres overmenneskelige geni og teknologiene de raskt kunne utvikle, kan handlingene til intelligenser som kommer fra en teknologisk singularitet føre til enten utryddelse eller frigjøring av hele arten vår, avhengig av holdningene til de mektigste overmenneskelige intelligensene overfor mennesker.

Oxford -filosofen Nick Bostrom, direktør for

Oxford Future of Humanity Institute

og World Transhumanist Organization , argumenterer for at måten overmenneskelige intelligenser behandler mennesker vil avhenge av deres første motivasjoner i øyeblikket av deres skapelse.En snill overmenneskelig intelligens ville, når han ønsket å bevare sin vennlighet, tømme snille (eller snillere) versjoner av seg selv som selvforbedringsspiralen fortsatte.Resultatet kan være et paradis der overmenneskelige intelligenser løser verdens problemer og tilbyr samtykke etter intelligensforbedring for mennesker.På den annen side vil en ondsinnet eller likegyldig overmenneskelig etterretning sannsynligvis gi mer av det samme, noe som resulterer i vår tilfeldige eller bevisste ødeleggelse.Av disse grunner kan den teknologiske singulariteten være den viktigste milepælen vår art noensinne vil konfrontere. Flere veier til overmenneskelig etterretning er blitt foreslått av singularitetsanalytikere og talsmenn.Den første er IA, eller

intelligensforsterkning

, tar et eksisterende menneske og forvandler henne til en ikke -menneskelig Being gjennom nevrokirurgi, grensesnitt mellom hjerne-datamaskiner, eller kanskje til og med hjerne-hjerne-grensesnitt.Den andre er AI, eller Kunstig intelligens , opprettelsen av et dynamisk kognitivt system som overgår mennesker i sin evne til å danne teorier og manipulere virkeligheten.Når en av disse teknologiene vil nå terskelnivået for sofistikering som er nødvendig for å produsere overmenneskelig intelligens, er usikker, men en rekke eksperter, inkludert Bostrom, siterer datoer innenfor 2010-2030-serien som sannsynlig.

fordi singulariteten kan være nærmere enn mangevil anta, og fordi de første motivasjonene til den første overmenneskelige intelligensen kan bestemme skjebnen til vår menneskelige art, ser noen filosofaktiverte (singularitarians) singulariteten ikke bare som et tema for spekulasjoner og diskusjoner, men som et praktisk ingeniørmål som meningsfullDet kan gjøres fremskritt mot i dag.I 2000 ble Singularity Institute for kunstig intelligens grunnlagt av Eliezer Yudkowsky for å jobbe utelukkende mot dette målet.