Bland AI forskere er jagten på singulariteten gået ind – dvs. det tidspunkt, hvor vi bygger en intelligens, der er større end vores egen. Forudsætningen er den velkendte Moores Lov som beskriver data/computer-kraftens eksponentielle vækst.
Og der mangler jo ikke dommedagsprofetier for, hvad der kan ske, når det indtræder. En sådan intelligens ville på få micro-sekunder, kunne bygge en ny mere intelligent version af sig selv … igen og igen – hvilket på meget kort tid ville resultere i en potentielt noget uhyggelig entitet, som ligeledes vil være allestedsnærværende over internettet.
Forskere hos Google mfl. forsøger at skrive software, der kan forhindre, en uhensigtsmæssig adfærd for en sådan intelligens – hvilket jeg anser for prisværdigt, men en blindgyde. Lidt ligesom en hund, der har besluttet sig for at opdrage på sit menneske.
AI har en masse muligheder for at forbedre verden med de intelligens-niveauer, vi typisk arbejder med i dag.
Men der vil komme et tidspunkt, hvor vi bliver nødt til at indføre Singularitetsloven (det er bare mit navn for det), som gør det strengt forbudt at skabe en intelligens i nærheden af et menneskes intelligens.
Dermed stopper vi også det uhensigtsmæssige kapløb, som forskere og virksomheder har startet mod at nå dette “mål”. Og i stedet bruger ressoucer på de mange fantastiske muligheder, der ligger i teknologiens anvendelse til noget godt.
Det er på den måde ret lig forskning på mange andre felter som f.eks. i bio- og gen-teknologi, som bidrager særdeles positivt til menneskeheden, men som kræver nogle klare rammer for ikke at blive farlige.
Så mit bud/gæt er at Singularitetsloven kommer til at træde i stedet for Moores Lov indenfor en kortere årrække, så de mange gode muligheder i teknologien kan blomstre uden frygt.
Mvh Peter Arnvind