Simbolu pamatojums ir simbolu, piemēram, rakstītu vai runātu vārdu, savienojums ar objektiem, idejām vai notikumiem, uz kuriem tie attiecas. Problēma, ko sauc par simbolu pamatošanas problēmu, ir saistīta ar veidiem, kādos vārdi tiek saistīti ar to nozīmi, un, paplašinot, kā apziņa ir saistīta ar simboliskās nozīmes izpratni. Simbolu iezemējuma problēma, jo tā ir saistīta ar šiem nozīmes un apziņas jautājumiem, bieži tiek apspriesta mākslīgā intelekta (AI) kontekstā.
Simbolu izpēte, kā arī procesi, kuros tie iegūst nozīmi un tiek interpretēti, ir pazīstama kā semiotika. Šajā studiju jomā nozare, ko sauc par sintaktiku, nodarbojas ar simbolisko sistēmu īpašībām un regulējošiem noteikumiem, tāpat kā valodas formālajām īpašībām. Simbolu iezemējuma problēma tiek saprasta šīs disciplīnas ietvaros, kas ietver semiozi, procesu, kas ļauj intelektam izprast pasauli caur zīmēm.
Simbolu iezemējuma problēmu pirmo reizi definēja 1990. gadā Stīvens Harnads no Prinstonas universitātes. Īsāk sakot, simbolu pamatošanas problēma jautā, kā simbolu nozīmes izpratni sistēmā, piemēram, formālajā valodā, var padarīt par sistēmas būtisku. Lai gan sistēmas operators varētu saprast simbolu nozīmi, pati sistēma to nesaprot.
Harnads atsaucas uz Džona Sērla klasisko “ķīniešu istabas” domu eksperimentu, lai ilustrētu savu viedokli. Šajā eksperimentā Sērlam, kurš nezina ķīniešu valodu, tiek dots noteikumu kopums, kas ļauj viņam rakstiski atbildēt uz jautājumiem, kas viņam tiek uzdoti, arī rakstiski ķīniešu valodā. Novērotājs ārpus telpas varētu nonākt pie secinājuma, ka Sērls ļoti labi saprot ķīniešu valodu, bet Sērls spēj manipulēt ar ķīniešu simboliem, nekad nesaprotot ne jautājumu, ne atbilžu nozīmi.
Pēc Harnada domām, eksperimentu var pielīdzināt AI. Dators varētu sniegt pareizās atbildes uz ārējiem norādījumiem, taču tas darbojas, pamatojoties uz tā programmēšanu, piemēram, Sērls, ievērojot noteikumus, kas viņam tika doti domu eksperimentā. AI spēj manipulēt ar simboliem, kuriem ir nozīme ārējam novērotājam, taču tam nav simbolu semantiskās izpratnes. Tāpēc nevar teikt, ka mākslīgajam intelektam ir apziņa, jo tas faktiski neinterpretē simbolus vai nesaprot, uz ko tie attiecas. Tas nesasniedz semiozi.