Ingeniører bruger kognitiv psykologi til at finde ud af, hvordan AI'er tænker og gør dem mere ansvarlige.
Ingeniører med kunstig intelligens har et problem: De ved det ofte ikke hvad deres kreationer tænker.
Når kunstig intelligens vokser i kompleksitet og udbredelse, vokser den også mere kraftfuld. AI har allerede taget hensyn til beslutninger om der går i fængsel der modtager et lån. Der er forslag, som AI skal bestemme der får den bedste chance for at leve, når en selvkørende bil står over for et uundgåeligt styrt.
Definition af AI er glat og vokser mere, da startups skifter buzzword over hvad de laver. Det accepteres generelt som ethvert forsøg på at abe menneskelig intelligens og evner. En delmængde, der er taget af, er neurale netværk, systemer, der "lærer", som mennesker gør gennem træning, og gør erfaring til netværk af simulerede neuroner. Resultatet er ikke kode, men en uleselig, sammenfiltret masse af millioner - i nogle tilfælde milliarder - kunstige neuroner, hvilket forklarer, hvorfor de, der skaber moderne AI'er, kan forvirres med, hvordan de løser opgaver.
De fleste forskere er enige om udfordring med at forstå AI trykker på. Hvis vi ikke ved, hvordan et kunstigt sind fungerer, hvordan kan vi så konstatere dets forudindtægter eller forudsige dets fejltagelser?