Tekninen singulariteetti tai yksinkertaisesti ”singulariteetti” on futurismin monitahoinen käsite, jossa on useita päällekkäisiä ja joskus ristiriitaisia määritelmiä. Vernor Vinge esitteli parhaan ja näkyvimmän singulaarisuuden määritelmän esseessään The Coming Technological Singularity. Se viittaa kohtaan, jossa yli -inhimillinen äly luodaan teknisesti. Nämä yli -inhimilliset älykkyydet voisivat sitten soveltaa aivovoimaansa ja asiantuntemustaan tehtävään luoda ylimääräisiä tai tehokkaampia yli -inhimillisiä älykkyyksiä, mikä johtaa lumipallovaikutukseen, jonka seuraukset eivät ylitä nykyistä kykyämme kuvitella.
Termi “tekninen singulaarisuus” syntyi analogisesti mustan aukon keskellä olevan singulaarisuuden kanssa, jossa luonnonvoimista tulee niin voimakkaita ja arvaamattomia, että kykymme laskea aineen käyttäytyminen näissä olosuhteissa laskee nollaan. Usein Singularity -vuoropuheluissa yhdessä yli -inhimillisen älykkyyden idean kanssa mainitaan ajatus nopeutuvasta teknologisesta muutoksesta. Jotkut ovat väittäneet, että teknisen kehityksen kaltevuuden kasvaessa se huipentuu asymptoottiin, joka on visuaalisesti samanlainen kuin matemaattinen singulariteetti.
Tämä käsitys singulaarisuudesta ei kuitenkaan ole sama kuin Vingen tarkoitus; viitaten yli -inhimillisen älykkyyden syntymiseen ja yli -inhimillisiin ajattelunopeuksiin. (Sisältää älykkyyden, kyvyn ymmärtää ja luoda käsitteitä, muuttaa tietoja teorioiksi, tehdä analogioita, olla luovia jne.) siinä mielessä kuin matemaattinen singulariteetti ehdottaa.
Koska yli -inhimilliset älykkyydet olisivat määritelmänsä mukaan älykkäämpiä kuin kukaan ihminen, kykymme ennustaa, mihin he kykenevät tietyn ajan, aineen tai energian avulla, eivät todennäköisesti ole tarkkoja. Yli-inhimillinen älykkyys voisi pystyä muovaamaan toimivan supertietokoneen halvoista ja helposti saatavista komponenteista tai kehittää täysimittaisen nanoteknologian ilman atomivoimamikroskooppia. Koska yli -inhimillisen älykkyyden kyky suunnitella ja valmistaa teknologisia laitteita ylittäisi nopeasti ihmisinsinöörien parhaat ponnistelut, yli -inhimillinen älykkyys voisi hyvinkin olla viimeinen keksintö, jonka ihmiskunta tarvitsee koskaan tehdä. Yli -inhimillisen nerokkuutensa ja teknologioidensa ansiosta, joita ne voisivat nopeasti kehittää, teknisestä singulaarisuudesta nousevien älykkyyden toimet voivat johtaa joko koko lajimme sukupuuttoon tai vapautumiseen, riippuen voimakkaimpien yli -inhimillisten älykkyyden asenteista ihmisiä kohtaan.
Oxfordin filosofi Nick Bostrom, Oxford Future of Humanity -instituutin ja Maailman transhumanistijärjestön johtaja, väittää, että tapa, jolla yli -inhimilliset älykkyydet kohtelevat ihmisiä, riippuu heidän alkuperäisistä motiiveistaan niiden luomishetkellä. Ystävällinen yli-inhimillinen äly, haluttaessa säilyttää ystävällisyytensä, synnyttäisi itsestään ystävällisiä (tai ystävällisempiä) versioita itsensä parantamiskierroksen jatkuessa. Tuloksena voisi olla paratiisi, jossa yli -inhimilliset älykkyydet ratkaisevat maailman ongelmat ja tarjoavat älykkyyttä ihmisille. Toisaalta ilkeä tai välinpitämätön yli -inhimillinen älykkyys tuottaa todennäköisesti enemmän samaa, mikä johtaa vahingossa tapahtuvaan tai tarkoitukselliseen tuhoomme. Näistä syistä tekninen singulaarisuus voi olla tärkein yksittäinen virstanpylväs, jonka lajimme koskaan kohtaa.
Singularity -analyytikot ja kannattajat ovat ehdottaneet useita polkuja yli -inhimilliseen älykkyyteen. Ensimmäinen on IA tai älykkyyden vahvistaminen, joka ottaa olemassa olevan ihmisen ja muuttaa hänet epäinhimilliseksi olennoksi neurokirurgian, aivotietokoneen tai mahdollisesti aivojen ja aivojen välisen liitännän kautta. Toinen on tekoäly tai tekoäly, dynaamisen kognitiivisen järjestelmän luominen, joka ylittää ihmiset kyvyssä muodostaa teorioita ja manipuloida todellisuutta. Milloin jompikumpi näistä tekniikoista saavuttaa yli-inhimillisen älykkyyden tuottamiseen tarvittavan kehittyneisyyden kynnyksen, on epävarmaa, mutta useat asiantuntijat, kuten Bostrom, mainitsevat päivämäärät vuosien 2010–2030 välillä.
Koska singulaarisuus voi olla lähempänä kuin monet olettaisivat, ja koska ensimmäisen yli-inhimillisen älykkyyden alkuperäiset motiivit voivat määrittää ihmislajimme kohtalon, jotkut filosofit-aktivistit (”Singularitarians”) pitävät singulaarisuutta paitsi spekulaation aiheena. keskustelua, mutta käytännön suunnittelutavoitteena, johon voidaan edistyä merkittävästi nykypäivänä. Niinpä Eliezer Yudkowsky perusti vuonna 2000 Singularity Institute for Artificial Intelligence -toiminnon yksinomaan tämän tavoitteen saavuttamiseksi.