Solomonova indukcija ir matemātiski stingra, idealizēta indukcijas forma, tas ir, prognozē, kas notiks nākotnē, pamatojoties uz iepriekšējo pieredzi. Tā ir algoritmiskās informācijas teorijas sastāvdaļa. Šī indukcijas shēma ir teorētiski optimāla, proti, ja ir pietiekami daudz datu, tā vienmēr spēs piešķirt varbūtības nākotnes notikumiem ar maksimāli pieļaujamo precizitāti. Vienīgā problēma ar Solomonoff indukciju ir tā, ka tā ir neaprēķināma, tas ir, lai darbinātu datoru ar bezgalīgu apstrādes jaudu. Tomēr visas veiksmīgās induktīvās shēmas un mašīnas, tostarp dzīvnieki un cilvēki, ir Solomonova indukcijas tuvinājumi.
Katrs verbālais arguments, kas satur ieteikumus labākai indukcijai, ciktāl tas faktiski darbojas, iedarbojas, mudinot klausītāju mainīt savu induktīvās stratēģijas veidu tā, lai tā labāk tuvinātu teoriju. Ideja, ka indukciju var matemātiski formalizēt šādā veidā, ir diezgan dziļa, un daudzas loģiķu un filozofu paaudzes teica, ka to nevar izdarīt. Teorija izauga no Reja Solomonova, Andreja Kolmolgorova un Gregorija Čaitina darba 1960. gados. Viņu pamatmotivācija bija formalizēt varbūtības teoriju un indukciju, izmantojot aksiomas, tādā pašā veidā, kā tika formalizēta algebra un ģeometrija. Teorija ir balstīta uz induktīvu likumu, ko sauc par Beijesa teorēmu, kas apraksta precīzu matemātisku veidu, kā atjaunināt uzskatus, pamatojoties uz ienākošajiem datiem.
Viens no Bayes teorēmas trūkumiem ir tāds, ka tas ir atkarīgs no noteikta notikuma iepriekšējas varbūtības. Piemēram, varbūtību, ka asteroīds nākamajos 10 gados ietrieks Zemi, var noteikt, pamatojoties uz vēsturiskiem datiem par asteroīdu triecieniem. Tomēr, ja iepriekšējo notikumu izlases lielums ir mazs, piemēram, cik reižu neitrīno ir konstatēts neitrīno slazdā, kļūst ļoti grūti paredzēt notikuma atkārtošanās iespējamību, pamatojoties tikai uz pagātnes pieredzi.
Šeit tiek izmantota Solomonova indukcija. Izmantojot objektīvu sarežģītības mērījumu, ko sauc par Kolmogorova sarežģītību, teorija var izdarīt pamatotu minējumu par kāda nākotnes notikuma iespējamību. Kolmogorova sarežģītības pamatā ir princips, ko sauc par minimālā apraksta garumu (MDL), kas novērtē bitu virknes sarežģītību, pamatojoties uz īsāko algoritmu, kas var izvadīt šo virkni. Lai gan Kolmogorova sarežģītība sākotnēji attiecās tikai uz bitu virknēm, to var tulkot, lai aprakstītu notikumu un objektu sarežģītību.
Solomonova indukcija integrē Kolmogorova sarežģītību Bajesa argumentācijā, sniedzot mums pamatotas prioritātes notikumiem, kas, iespējams, nekad nav notikuši. Patvaļīga notikuma iepriekšējā iespējamība tiek vērtēta, pamatojoties uz tā vispārējo sarežģītību un specifiku. Piemēram, varbūtība, ka divas nejaušas lietus lāses vētras laikā ietriecās vienā kvadrātmetrā, ir diezgan zema, taču daudz lielāka nekā varbūtība, ka desmit vai simts nejaušas lietus lāses trāpīs šajā kvadrātmetrā.
Daži zinātnieki ir pētījuši teoriju neiroanatomijas kontekstā, parādot, kā optimāla indukcija ir organizējošs princips to dzīvnieku evolūcijā, kuriem nepieciešama precīza indukcija izdzīvošanai. Kad tiks izveidots īsts mākslīgais intelekts, principi, visticamāk, būs tā uzbūves pamatā.