Hübriidsüsteemid: loengu käigus tehtud sissjeuhatavad märkmed
Allikas: Lambda
Hübriidsüsteemid AI-s Neurosymbolic AI 1) Masinõpe, kõige rohkem närvivõrgud - klassikaline statistika a la n-grams - nö vanemad õppimismeetodid - närvivõrgud: - BERT ja selle derivaadid - transformerid a la GPT 2) Symbolic reasoning, ntx - automated theorem proving (võimsam keel) keeruline implementeerida - RDFS ja sõbrad, semantic web: triplets (piiratud keel) lihtne implementeerida - modaalsed/kõrgemat järku/eksootilised loogikad üldiselt ei implementeeritagi - tõenäosused ja erandid (default jne) väga vähe implementatsioone -------------- masinõppel plussid ja miinused: + ... - hallutsineerimine (valetab) - ei suuda edukalt ette mõelda / otsingut teha / planeerida - ei ole otsingumootorit sees - lihtsamaid rehkendusi a la kalkulaator ei ole sees - andmebaasimootorit ei ole sees - kontrollitavus: et saaksime suunata, mida teeb/kuidas vastab (sh ennustatavus) - seletatavus --------------- 1) teoreemitõestajatele lisatud masinõpe S. Schulz (E) 90-datel ei andnud edu 2010-l ja praegu: Tshehhide punt (Josef Urban): teoreemitõestajad kui masinõppijad pundis T. Mikolov (word2vec fame) õppida teoreemitõestuse otsingut suunama, õppides edukatest leitud tõestustest: suunata ja piirata otsingut. Mizar-i nimeline aksiomaatika matemaatika jaoks: päris kõvasti abiks 2) Laine: lisame närvivõrkude commonsense reasoningule a la bert ja gpt sümbolmeetodeid - päris palju artikleid ja päris palju süsteeme eriliselt suurt ei ole siiani olnud - tüüpiliselt: lisame RDF tüüpi faktikolmikuid õpitavasse materjali. Kuidas lisada?? Igaüks katsetab erimoodi. 3) Laine - hüpoteetiline ehk algamas: Kuidas reeglitega otsingut integreerida keelemudelitega? - Semantic parsing: keele lausetest saada sümbolkujul nö maailmaga seostuv mudel (ntx loogikavalemid vms) Õppida ära, kuidas lausest saada sümbolkujul esitus? Mille pealt õpiks? 1) Lause1 -> sümbolkuju1 Lause2 -> sümbolkuju1 ... peaks olema sees kõikvõimalikud keerulised ericased üritusi veidi on, aga mitte eriti suures mahus Johan Bos, Lasha Abzianidze 2) Hübriidina, a la osaline semantiline parser, ja sellele liidame lihtsama masinõppe osa Optsioon: * kasutame transformerit a la gpt lausete lihtsustamiseks * siis saaks ka piiratud semantiline parser edukalt hakkama * ütled gptle: "Reformulate with simple short sentences: John....." * teeme lihtsustamise-tekstikorpuse ja teeme nö transformeri üleõppimine (fine-tuning), ehk lisaõppimine sisend-väljund-paaride pealt - kuidas teha lihtsustamise-teksti-näite-korpust? sisend/väljund paarid - kuidas täpselt fine-tuningut teha - Tööriistade kasutamise õppimine (toolbox) Õpetame transformeri koostama proget, mis ülesande lahendaks, ja siis jooksutame seda proget, ja siis teeme vastusest inimkeelse vastuse / jutu. SQL tabelite struktuuri kirjeldus + Inimkeelsest küsimusest -> SQL päring Veebiotsingu komponente Kalkulaatori komponente Otsingu/planeerimise/tõestusteotsimise komponente Promovad: Facebook/Meta AI, Yann LeCun - Otsingu parem suunamine commonsense info pealt, kasutades masinõppe värke Eelistad otsingus reegleid, mis on seotud sõnadega küsimuses. Auto -> ratas, liiklus, .... Piim -> klaas, toit, ... Siiani on kaks punti hästi natuke teinud Ei õpi mitte ainult tõestustest, vaid lihtsalt sõnade co-occurrencest + sarnasustest + populaarsustest + tõenäosused + ... Kuidas lisaks transformereid selle juures kasutada?? - Commonsense sümbolreeglite automaatne ehitamine tekstide pealt (knowledge graafi pealt) Natuke tööd eri puntide poolt tehtud, aga suhteliselt vähe ja algusjärgus - Spekulatiivsemad mõtted: teistuguse arhitektuuriga võrgud võrgusõlmed oleks reeglid/faktid koos muutujatega