Simboliese kunsmatige intelligensie

'n Artistieke voorstelling van KI.

In kunsmatige intelligensie is simboliese kunsmatige intelligensie die term vir die versameling van alle metodes in kunsmatige intelligensie-navorsing wat gebaseer is op hoëvlak simboliese (mens-leesbare) voorstellings van probleme, logika en soektog.[1] Simboliese KI het gereedskap soos logiese programmering, produksiereëls, semantiese nette en rame gebruik, en dit het toepassings ontwikkel soos kennisgebaseerde stelsels (veral kundige stelsels), simboliese wiskunde, outomatiese stellingbewysers, ontologieë, die semantiese web en outomatiese beplanning en skeduleringstelsels. Die Simboliese KI-paradigma het gelei tot seminale idees in soektog, simboliese programmeertale, agente, multi-agent-stelsels, die semantiese web, en die sterk punte en beperkings van formele kennis en redenasiesisteme.

Simboliese KI was die dominante paradigma van KI-navorsing vanaf die middel-1950's tot die middel-1990's.[2] Navorsers in die 1960's en die 1970's was oortuig daarvan dat simboliese benaderings uiteindelik daarin sou slaag om 'n masjien met kunsmatige algemene intelligensie te skep en het dit as die uiteindelike doel van hul veld beskou. Samuel se dambord-speelprogram het tot onrealistiese verwagtinge en beloftes gelei en is gevolg deur die Eerste KI-winter namate befondsing opgedroog het.[3][4] 'n Tweede oplewing (1969–1986) het plaasgevind met die opkoms van kundige stelsels, hul belofte om korporatiewe kundigheid vas te lê en 'n entoesiastiese korporatiewe omhelsing.[5][6] Daardie oplewing, en 'n paar vroeë suksesse, bv. met XCON by DEC, is weer deur latere teleurstelling gevolg.[6] Probleme met probleme met kennisverkryging, die handhawing van groot kennisbasisse en brosheid in die hantering van buite-domein probleme het ontstaan. Nog 'n tweede, KI Winter (1988–2011) het gevolg.[6] Vervolgens het KI-navorsers daarop gefokus om onderliggende probleme in die hantering van onsekerheid en kennisverkryging aan te spreek.[7] Onsekerheid is aangespreek met formele metodes soos versteekte Markov-modelle, Bayesiaanse redenasie en statistiese relasionele leer.[8][9] Simboliese masjienleer het die kennisverkrygingsprobleem aangespreek met bydraes insluitend Version Space, Valiant se PAC-leer, Quinlan se ID3-besluitboomleer, gevalgebaseerde leer en induktiewe logika-programmering om verhoudings te leer.[10]

Neurale netwerke, 'n subsimboliese benadering, is van vroeg af nagestreef en het in 2012 weer sterk na vore gekom. Vroeë voorbeelde is Rosenblatt se perceptron-leerwerk, die terugpropagasiewerk van Rumelhart, Hinton en Williams,[11] en werk in konvolusionele neurale netwerke deur LeCun et al. . in 1989.[12] Neurale netwerke is egter eers in ongeveer 2012 as suksesvol beskou: "Totdat Groot Data algemeen geword het, was die algemene konsensus in die Kl-gemeenskap dat die sogenaamde neurale-netwerkbenadering hopeloos was. Stelsels het net nie so goed gewerk nie, in vergelyking na ander metodes ... 'n Rewolusie het in 2012 gekom, toe 'n aantal mense, insluitend 'n span navorsers wat saam met Hinton werk, 'n manier uitgewerk het om die krag van grafiese verwerkingseenhede te gebruik om die krag van neurale netwerke enorm te verhoog."[13] Oor die volgende paar jaar het diepleer skouspelagtige sukses behaal in die hantering van visie, spraakherkenning, spraaksintese, beeldgenerering en masjienvertaling. Sedert 2020, aangesien inherente probleme met vooroordeel, verduideliking, verstaanbaarheid en robuustheid egter meer duidelik geword het met diepleerbenaderings; 'n toenemende aantal KI-navorsers het gevra om die beste van beide die simboliese en neurale netwerkbenaderings te kombineer[14][15] en om areas aan te spreek waarmee albei benaderings sukkel, soos gesonde verstand redenering.[13]

  1. Garnelo, Marta; Shanahan, Murray (1 Oktober 2019). "Reconciling deep learning with symbolic artificial intelligence: representing objects and relations". Current Opinion in Behavioral Sciences (in Engels). 29: 17–23. doi:10.1016/j.cobeha.2018.12.010. hdl:10044/1/67796. S2CID 72336067.
  2. Kolata 1982.
  3. Kautz 2022, pp. 107-109.
  4. Russell & Norvig 2021, p. 19.
  5. Russell & Norvig 2021, pp. 22-23.
  6. 6,0 6,1 6,2 Kautz 2022, pp. 109-110.
  7. Kautz 2022, pp. 110-111.
  8. Russell & Norvig 2021, p. 25.
  9. Kautz 2022, p. 111.
  10. Kautz 2020, pp. 110-111.
  11. Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (1986). "Learning representations by back-propagating errors". Nature. 323 (6088): 533–536. Bibcode:1986Natur.323..533R. doi:10.1038/323533a0. ISSN 1476-4687. S2CID 205001834.
  12. LeCun, Y.; Boser, B.; Denker, I.; Henderson, D.; Howard, R.; Hubbard, W.; Tackel, L. (1989). "Backpropagation Applied to Handwritten Zip Code Recognition". Neural Computation. 1 (4): 541–551. doi:10.1162/neco.1989.1.4.541. S2CID 41312633.
  13. 13,0 13,1 Marcus & Davis 2019.
  14. Rossi, Francesca. "Thinking Fast and Slow in AI". AAAI. Besoek op 5 Julie 2022.
  15. Selman, Bart. "AAAI Presidential Address: The State of AI". AAAI. Besoek op 5 Julie 2022.

Developed by StudentB