Intervjuu Küsimused

100 parimat masinõppeintervjuu küsimust ja vastust

2. jaanuar 2022

Masinõpe on andmeanalüüsi meetod, mis automatiseerib analüütilise mudeli koostamist. See on tehisintellekti haru, mis põhineb ideel, et süsteemid saavad andmetest õppida ning see suudab tuvastada mustreid ja teha otsuseid vähema inimese sekkumisega.

Masinõpet kasutatakse laialdaselt Interneti-otsingumootorites, e-posti filtrites rämpsposti veebisaitide sorteerimiseks, pangatarkvaras ebatavaliste või rikutud tehingute tuvastamiseks ning seda kasutatakse paljudes telefonirakendustes, näiteks hääletuvastuses.

Sisukord

Karjäär masinõppes?

Eeldatakse, et tehisintellekt loob 2022. aasta lõpuks umbes 4 miljardi dollari suuruse äriväärtuse. Üle kolmandiku ettevõtetest on juba alustanud kulutusi masinõppele ja andmeteadusele või kavatsevad seda teha lähiajal. .

Kui me räägime masinõppeinseneride töövõimalustest, siis perioodil 2015-2018 suurenes kogu maailmas sellele ametikohale pakutavate töökohtade arv enam kui 330%.

Masinõppega seotud töökohtadel saate teha head karjääri. Oleme välja toonud kõige sagedamini küsitud masinõppe intervjuu küsimused ja vastused. Vaadake kindlasti läbi kogu meie ajaveebi, et te ei jääks masinõppe intervjuu küsimustest ja vastustest ilma.

Populaarseimad masinõppeintervjuu küsimused ja vastused

1. Palun selgitage masinõpet, tehisintellekti ja süvaõpet?

masinõpe

Masinõpet määratletakse tehisintellekti alamhulgana ja see sisaldab tehnikaid, mis võimaldavad arvutitel andmete põhjal asju sorteerida ja tehisintellekti rakendusi pakkuda.

Tehisintellekt (AI) on arvutiteaduse haru, mis keskendub peamiselt nutikate masinate ehitamisele, mis suudavad täita teatud ülesandeid, mis nõuavad peamiselt inimese intelligentsust. See on ettevõtmine inimeste intelligentsust masinates kopeerida või simuleerida.

Süvaõpet saab määratleda kui tehisintellekti masinõppe algoritmide klassi, mis kasutab peamiselt mitut kihti, et kumulatiivselt eraldada kõrgema taseme funktsioonid antud töötlemata sisendist.

2. Kui raske on masinõpe?

Masinõpe on tohutu ja hõlmab paljusid asju. Seetõttu kulub masinõppe õppimiseks rohkem kui kuus kuud, kui kulutate päevas vähemalt 6–7 tundi. Kui teil on head praktilised matemaatilised ja analüüsioskused, piisab teile kuuest kuust.

3. Kas saate selgitada tuumatrikki SVM-algoritmis?

Kerneli trikk on meetod, mille puhul mittelineaarsed andmed projitseeritakse suuremasse dimensiooniruumi, et hõlbustada andmete klassifitseerimist, kus neid saab tasapinnaga lineaarselt jagada.

4. Kas saate loetleda mõned populaarsed ristvalideerimise tehnikad?

Mõned populaarsed ristvalideerimise tehnikad on loetletud allpool.

    Hoiatusmeetod:Selline tehnika toimib nii, et eemaldatakse koolitusandmete kogumi osa ja saadetakse sama mudelile, mida koolitati ülejäänud andmekogumi jaoks, et saada nõutud ennustused.K-foldi ristvalideerimine:Siin jagatakse andmed k alamhulgaks nii, et iga kord saab ühte k alamhulga hulgast kasutada valideerimiskomplektina ja teisi k-1 alamhulka kasutatakse treeningkomplektina.Stratifitseeritud K-foldi ristvalideerimine:See töötab tasakaalustamata andmete korral.Jäta-P-Out ristvalideerimine:Siin jätame n-st andmepunktist välja treeningandmetest p andmepunkti, seejärel kasutame mudeli treenimiseks n-p valimit ja valideerimiskomplekti jaoks p punkti.

5. Erinevused pakkimis- ja võimendusalgoritmide vahel?

Kotti pakkimine Tugevdamine
See on meetod, mis ühendab sama tüüpi ennustused.See on meetod, mis ühendab erinevat tüüpi ennustusi.
See vähendab dispersiooni, mitte eelarvamusiSee vähendab kallutatust, mitte dispersiooni.
Iga mudel saab võrdse kaaluMudelid kaalutakse jõudluse alusel.

Masinõppe intervjuu küsimused ja vastused

6. Mis on SVM-i tuumad? Kas saate loetleda mõned populaarsed SVM-is kasutatavad tuumad?

Tuuma kasutatakse põhiliselt matemaatiliste funktsioonide seadistamiseks, mida kasutatakse tugivektori masinas, pakkudes andmetega manipuleerimise akent. Kerneli funktsiooni kasutatakse treeningandmete teisendamiseks nii, et mittelineaarne otsustuspind muudetakse lineaarseks võrrandiks suuremas arvus mõõtmetes.

Mõned SVM-is kasutatavad populaarsed tuumad on järgmised:

  1. Polünoomtuum
  2. Gaussi tuum
  3. Gaussi radiaalne baasfunktsioon (RBF)
  4. Laplace RBF kernel
  5. Hüperboolne puutuja tuum
  6. Sigmoidne tuum
  7. Esimest tüüpi kerneli Besseli funktsioon
  8. ANOVA radiaalpõhine tuum

7. Kas saate OOB-i viga selgitada?

Kotist väljas olev viga, mida nimetatakse OBB veaks, mida tuntakse ka kui kotist väljas olevat hinnangut, on meetod juhuslike metsade, võimendatud otsustuspuude ennustusvea mõõtmiseks. Bagging kasutab põhiliselt alamproovimist koos asendusega, et luua koolitusnäidised, et mudel saaks neist õppida.

8. Kas suudate K-Meansi ja KNN-i algoritme eristada?

K-tähendab KNN algoritmid
See on järelevalveta masinõpe.See on juhendatud masinõpe.
See on klastrite masinõppe algoritm.See on klassifitseerimise või regressiooni masinõppe algoritm.
Selle jõudlus on aeglane.See toimib palju paremini.
See on innukas õppija.See on laisk õppija.

9. Selgitage mõiste dispersiooni inflatsioonifaktori keskmine?

Dispersiooni inflatsioonitegur, mida tuntakse kui VIF, on antud mitme regressioonimuutujate komplekti multikollineaarsuse mõõt. Siinne suhe arvutatakse iga sõltumatu muutuja jaoks. Kõrge VIF tähendab, et seotud sõltumatu muutuja on enamasti kollineaarne mudeli teiste muutujatega.

10. Selgitage SVM-i (Support Vector Machines) masinõppes?

Support Vector Machine, tuntud kui SVM, on üks kõige sagedamini kasutatavaid juhendatud õppimise algoritme, mida kasutatakse peamiselt klassifitseerimise ja regressiooniprobleemide jaoks. Seda kasutatakse peamiselt masinõppe klassifikatsiooniprobleemide lahendamiseks.

Vaata ka 100 parimat võimalikku intervjuuküsimust ja vastust

SVM-algoritmi põhieesmärk on luua parim otsustuspiir, mis eraldab n-mõõtmelise ruumi klassideks, et saaks edaspidi hõlpsasti uue saadud andmepunkti õigesse kategooriasse paigutada.

Masinõppe intervjuu küsimused ja vastused

11. Kas teha vahet juhendatud ja järelevalveta masinõppel?

Järelevalvega mudel Järelevalveta mudel
Siin õpib algoritm märgistatud andmekogumil,Siin pakub see märgistamata andmeid.
Siin peavad mudelid leidma vastendusfunktsiooni, mida kasutatakse sisendmuutuja (X) vastendamiseks väljundmuutujaga (Y).Juhendajata õppimise peamine eesmärk on leida antud sisendandmetest struktuur ja mustrid.

12. Selgitage mõisteid täpsus ja meeldetuletus?

Täpsus, tuntud ka kui positiivne ennustav väärtus, on määratletud kui asjakohaste eksemplaride osa hangitud eksemplaride hulgas.

Täpsus = TP/TP+FP

Kus TP on tõeliselt positiivne

FP id Valepositiivne

Tagasikutsumine, Tuntud ka kui tundlikkus, määratletakse kui osa asjakohastest allalaaditud juhtudest.

Meenuta = TP/TP+FP.

Kus TP on tõeliselt positiivne

FP on valepositiivne.

13. Kas teha vahet L1 ja L2 Regulariseerimise vahel?

L1 Regulariseerimine L2 Regulariseerimine
Regressioonimudelit, mis kasutab L1 reguleerimisprotsessi, nimetatakse Lasso regressiooniks.Regressioonimudelit, mis kasutab L1 reguleerimisprotsessi, nimetatakse Ridge'i regressiooniks.
Lasso regressioon lisab kahjufunktsioonile trahviliikmena koefitsiendi suuruse absoluutväärtuse.Ridge regressioon lisab koefitsiendi ruudu suuruse trahviliikmena kahjufunktsioonile.
See püüab hinnata andmete mediaani.See püüab hinnata andmete keskmist.

14. Selgitage Fourier' teisendust?

Fourier' teisendus on viis millegi jagamiseks siinuslainete hunnikuks. Matemaatika mõttes on Fourier' teisendus protsess, mis suudab signaali teisendada selle vastavateks koostisosadeks ja sagedusteks. Fourier' teisendust kasutatakse mitte ainult signaali-, raadio-, akustilises jne.

15. Mis on F1 tulemus? Kuidas seda kasutada?

F1-skoor ühendab nii klassifikaatori täpsuse kui ka meeldetuletuse harmoonilise keskmise võtmisega üheks meetriks. Seda kasutatakse kahe klassifikaatori jõudluse võrdlemiseks. Näiteks klassifikaatoril X on suurem tagasikutsumine ja klassifikaatoril Y suurem täpsus. Nüüd kasutatakse mõlema klassifikaatori jaoks arvutatud F1-skoore, et ennustada, kumb annab paremaid tulemusi.

F1 skoori saab arvutada järgmiselt

2(P*R)/(P+R)

Kus P on täpsus.

R on klassifikatsioonimudeli tagasikutsumine.

Masinõppe intervjuu küsimused ja vastused

16. Kas eristada I ja II tüüpi viga?

I tüüpi viga II tüüpi viga
See on samaväärne valepositiivsusega.See on samaväärne valenegatiivsega
See viitab hüpoteesi mitteaktsepteerimiseleSee viitab hüpoteesi aktsepteerimisele
Tagasilükkamine võib toimuda isegi volitatud vaste korral.Aktsepteerimine võib toimuda isegi volitamata vastega.

17. Kas saate selgitada, kuidas ROC kõver töötab?

ROC kõver on kujutatud graafiliselt, joonistades tõelise positiivse määra (TPR) ja FPR (valepositiivsed määrad). Kus

  1. Tõelist positiivset määra saab määratleda kui positiivseteks prognoositud vaatluste osakaalu kõigist antud positiivsetest vaatlustest.

(TP/(TP + FN))

  1. Valepositiivsete määr on defineeritud kui nende vaatluste osakaal, mis on kõigist antud negatiivsetest tähelepanekutest valesti ennustatud positiivseteks.

(FP/(TN + FP))

18. Kas teha vahet süvaõppel ja masinõppel?

Sügav õppimine Masinõpe
See on masinõppe alamhulkSee on süvaõppe superkomplekt.
See lahendab keerulised probleemid.Seda kasutatakse uute asjade õppimiseks.
See on masinõppe evolutsioon.See on AI areng.
Siin on algoritmid andmeanalüüsis suures osas ise kujutatudAlgoritmid tuvastavad andmeanalüütikud.

19. Kas saate nimetada erinevaid masinõppe algoritme?

Erinevad masinõppe algoritmid on loetletud allpool.

  1. Otsustuspuud,
  2. Naiivne Bayes,
  3. Juhuslik mets
  4. Toetage vektormasinat
  5. K-lähim naaber,
  6. K-tähendab rühmitamist,
  7. Gaussi segu mudel,
  8. Varjatud Markovi mudel jne.

Masinõppe intervjuu küsimused ja vastused

20. Mis on AI?

KOHTA

AI (tehisintellekt) viitab inimese intelligentsuse simuleerimisele masinates, mis on programmeeritud peegeldama sarnaselt inimestega ja jäljendama nende tegevusi.

Näited: näotuvastus ja -tuvastus, Google Maps ja

Sõiduteenuse rakendused, e-maksed.

Masinõppe intervjuu küsimused ja vastused

21. Kuidas valida andmestiku kallal töötamise ajal olulisi muutujaid?

  1. Enne oluliste muutujate valimist peate eemaldama korrelatsioonimuutujad.
  2. Kasutage lineaarset regressiooni ja valige muutujad nende p väärtuste põhjal.
  3. Kasutage valikut edasi, astmelist valikut ja tagasisuunalist valikut.
  4. Kasutage Random Foresti, Xgboosti ja joonistage muutuva tähtsuse diagramm
  5. Kasutage Lasso regressiooni
  6. Peate valima n parimat funktsiooni, mõõtes saadaolevate funktsioonide kogumi teabekasu.

22. Kas teha vahet põhjuslikkuse ja korrelatsiooni vahel?

The Põhjuslikkus kehtib selgesõnaliselt juhtudel, kui tegevus A põhjustab tegevuse B tulemuse.

Korrelatsioon võib lihtsalt defineerida kui suhet. Kus A tegevused võivad olla seotud tegevusega B. kuid siin pole vaja, et üks sündmus põhjustaks teise sündmuse toimumist.

23. Mis on liigne paigaldamine?

Ülesobitamine on teatud tüüpi modelleerimisviga, mille tulemuseks on suutmatus ennustada ega arvata tulevasi vaatlusi tõhusalt ega sobitada lisaandmeid juba olemasolevasse mudelisse.

24. Selgitage mõisteid standardhälve ja dispersioon?

TO standardhälve on defineeritud kui arv, mis määrab väärtuste hajutamise. Madal standardhälve näitab, et enamik numbreid on keskmise väärtuse lähedal. Kõrgem standardhälve tähendab, et väärtused on hajutatud, seda laiemas vahemikus.

Dispersioon masinõppes on teatud tüüpi tõrge, mis tuleneb mudeli tundlikkusest antud treeningkomplekti väikeste kõikumiste suhtes.

25. Selgitage mitmekihilist Perceptroni ja Boltzmanni masinat?

Mitmekihiline pertseptron (MLP) on määratletud kui tehisnärvivõrkude klass, mis suudab antud sisendite hulgast genereerida väljundite komplekti. MLP koosneb mitmest sisendsõlmede kihist, mis on ühendatud suunatud graafikuna sisend- ja väljundkihtide vahel.

Peamine eesmärk Boltzmanni masin on antud probleemi lahenduse optimeerimine. Seda kasutatakse peamiselt selle konkreetse probleemiga seotud kaalude ja koguste optimeerimiseks.

Masinõppe intervjuu küsimused ja vastused

26. Selgitage mõiste eelarvamus?

Andmete kallutatust masinõppes defineeritakse kui veatüüpi, mille puhul antud andmestiku teatud elemendid on kaalutud rohkem kui teised. Kallutatud andmekogum ei kajasta täpselt mudeli kasutusjuhtu ning selle tulemuseks on madal täpsustase ja analüüsivigu.

27. Nimeta masinõppe tüübid?

Masinõppe tüübid on loetletud allpool.

  1. Juhendatud õpe
  2. Järelevalveta õppimine
  3. Tugevdusõpe

28. Kas teha vahet klassifikatsioonil ja regressioonil?

Klassifikatsioon Regressioon
See on sildi ennustamineSee on koguse ennustamine
Siin on andmed märgistatud ühes või mitmes klassis.Siin peate kogust pidevalt ennustama.
See võib ennustada pidevat väärtust.See võib ennustada diskreetset väärtust.
Seda saab hinnata täpsuse abil.Seda saab hinnata keskmise ruudu vea abil.

29. Mis on segadusmaatriks?

Masinõppe valdkonnas on a segaduse maatriks nimetatakse ka veamaatriksiks, on määratletud kui spetsiifiline tabelipaigutus, mis võimaldab kasutajal visualiseerida algoritmi, peamiselt juhendatud õppimise, toimivust.

Segadusmaatriks

30. Kui teie andmekogumil on suur dispersioon, kuidas te sellega käituksite?

Suure dispersiooniga andmekogumite puhul saame kasutada pakkimisalgoritmi. Pakkimisalgoritm jagab andmed erinevatesse alamrühmadesse juhuslike andmete põhjal kopeeritud valimiga. Kui andmed on jagatud treeningalgoritmi abil, saab juhuslikke andmeid kasutada reeglite loomiseks. Seejärel kasutame küsitlustehnikat, et koguda kõik mudeli prognoositavad tulemused.

Masinõppe intervjuu küsimused ja vastused

31. Kas teha vahet induktiivsel ja deduktiivsel õppimisel?

Induktiivne õpe Deduktiivne õpe
Selle eesmärk on arendada teooriat.Selle eesmärk on testida olemasolevat teooriat.
See liigub konkreetsetelt tähelepanekutelt laiaulatuslike üldistuste juurdeKui teooriat pole, ei saa te läbi viia deduktiivseid uuringuid.
See koosneb kolmest etapist.VaatlusJälgige mustrit Töötage välja teooriaSee koosneb neljast etapist: alustage olemasolevast teooriast. Sõnastage olemasoleval teoorial põhinev hüpotees. Koguge andmeid hüpoteesi kontrollimiseks. Analüüsige tulemusi

32. Selgitage rikutud väärtuste käsitlemist antud andmekogumis?

Allpool on toodud võimalused puuduvate andmete käsitlemiseks?

  1. Eemaldage puuduvate väärtustega read.
  2. Looge veel üks ennustav mudel, et saaksite prognoosida puuduvad väärtused.
  3. Kasutage mudelit nii, et see võib sisaldada puuduvaid andmeid.
  4. Peate asendama puuduvad andmed koondatud väärtustega.
  5. Saate ennustada puuduvad väärtused.
  6. luua tundmatu kategooria

33. Kumb neist on olulisem mudeli täpsus või mudeli jõudlus?

Mudeli täpsus peetakse masinakeele / AI mudeli oluliseks omaduseks. Iga kord, kui arutleme mudeli toimivuse üle, teeme esmalt selgeks, kas see on mudeli tulemuslikkuse või mudeli koolituse tulemuslikkus.

Mudeli jõudlus on täiustatud hajutatud andmetöötluse ja antud hinnatud varade paralleelstamise abil, kuid mudeli koolitusprotsessi käigus peame täpsust hoolikalt suurendama.

34. Mis on aegrida?

Masinõppe aegrida määratletakse juhuslike muutujate kogumina, mis on järjestatud aja järgi. Aegridu uuritakse nähtuse tõlgendamiseks, trendi komponentide, tsüklilisuse tuvastamiseks ja selle tulevaste väärtuste ennustamiseks.

35. Kas teha vahet entroopial ja teabe hankimisel?

The Teabe kogumine on defineeritud kui teabe hulk, mis on saadud signaali või juhusliku muutuja kohta teise juhusliku muutuja vaatlemisel.

Entroopia võib defineerida kui keskmist kiirust, millega stohhastiline andmeallikas toodab teavet, või võib seda defineerida kui juhusliku suurusega seotud määramatuse mõõdet.

36. Kas eristada stohhastilist gradiendi laskumist (SGD) ja gradiendi laskumist (GD)?

Partii gradiendi laskumine on kaasatud iga sammu täieliku treeningkomplekti arvutamisse, mille tulemuseks on väga aeglane protsess väga suurte treeningandmete puhul. Seetõttu muutub Batch GD tegemine väga kulukaks. Siiski on see suurepärane suhteliselt sujuvate veakollektorite jaoks. Lisaks on see funktsioonide arvuga hästi mastaapne.

Stohhastilise gradiendi laskumine proovib lahendada Batch Gradient'i laskumise peamist probleemi, milleks on kogu treeningandmete kasutamine gradientide arvutamiseks iga sammuna. SGD on oma olemuselt stohhastiline, mis tähendab, et see kogub igal sammul mõned juhuslikud treeningandmete eksemplarid ja seejärel arvutab gradiendi, muutes selle kiiremaks, kuna ühe pildiga manipuleerimiseks on väga vähe andmeid.

Partii gradiendi laskumine Stohhastilise gradiendi laskumine
See arvutab gradiendi, kasutades kogu koolituse näidist.See arvutab gradiendi ühe koolitusnäidise abil.
Seda ei saa soovitada suurte treeningnäidiste jaoks.Seda saab soovitada suurte koolitusnäidiste jaoks.
See on oma olemuselt deterministlik.See on oma olemuselt keerukas.

37. Kas teha vahet Gini lisandi ja entroopia vahel otsustuspuus?

Gini Entroopia
Sellel on väärtused vahemikus [0, 0,5]Sellel on väärtused vahemikus [0, 1]
See on keerulisem.See ei ole keeruline.
Selle mõõtmine on tõenäosus, et juhuslik valim klassifitseeritakse õigesti.See on mõõtmine teabe puudumise arvutamiseks,

38 . Kas mainida mõningaid otsustuspuude eeliseid ja puudusi?

otsustuspuude eelised ja puudused

Otsustuspuu eelised:

  1. Otsustuspuud nõuavad eeltöötluse ajal andmete ettevalmistamiseks vähem jõupingutusi võrreldes teiste algoritmidega.
  2. Otsustuspuu ei nõua andmete normaliseerimist.
  3. See ei nõua andmete skaleerimist.
  4. Andmetes puuduvad väärtused ei mõjuta otsustuspuu koostamise protsessi.
  5. Otsustuspuu mudelit on tehnilistele meeskondadele ja sidusrühmadele väga lihtne selgitada.
Vaata ka 100 parimat JavaScripti intervjuu küsimust ja vastust

39. Kas saate selgitada masinõppe ansambliõppe tehnikat?

Ansamblimeetodid on meetodid, mida kasutatakse mitme mudeli loomiseks ja nende kombineerimiseks, et saada paremaid tulemusi. Ansamblimeetodid annavad tavaliselt täpsemaid lahendusi kui üks mudel.

sisse Ansambliõpe , jagame treeningandmete komplekti mitmeks alamhulgaks, kus iga alamhulka kasutatakse seejärel eraldi mudeli koostamiseks. Kui mudelid on koolitatud, kombineeritakse need tulemuse ennustamiseks nii, et väljundi dispersioon väheneb.

Masinõppe intervjuu küsimused ja vastused

40. Selgitage mõisteid Kollineaarsus ja Multikollineaarsus?

Multikollineaarsus tekib siis, kui mitu sõltumatut muutujat on regressioonimudelis üksteisega tugevas korrelatsioonis, mis tähendab, et sõltumatut muutujat saab ennustada regressioonimudeli teisest sõltumatust muutujast.

Kollineaarsus esineb peamiselt siis, kui kahel mitmekordse regressiooni ennustava muutuja vahel on mingi korrelatsioon.

Kollineaarsus

41. Kas eristada Random Forest ja Gradient Boosting masinaid?

Nagu juhuslikud metsad, on ka gradiendi suurendamine ka otsustuspuude kogum. Kaks peamist erinevust on järgmised:

    Kuidas puid ehitatakse:Iga puu juhuslikus metsas ehitatakse iseseisvalt, samal ajal kui gradiendi suurendamine ehitab korraga ainult ühe puu.Tulemuste kombineerimine: juhuslikud metsad kombineerivad tulemusi protsessi lõpus keskmistamise teel. Gradiendi suurendamine aga kombineerib tulemusi mööda teed.

42. Selgitage mõisteid Omavektorid ja Omaväärtused?

Omavektorid on ühikvektorid, mis tähendab, et nende pikkus või suurus on 1,0. Neid nimetatakse parempoolseteks vektoriteks, mis tähendab veeruvektorit.

Omaväärtused on koefitsiendid, mida rakendatakse omavektoritele, mis omakorda annavad vektoritele nende pikkuse või suuruse.

Omavektorid ja omaväärtused

43. Kas saate selgitada assotsiatiivsete reeglite kaevandamist (ARM)?

Ühingureeglite kaevandamine (ARM) eesmärk on välja selgitada ühenduse reeglid, mis vastavad andmebaasi eelnevalt määratletud minimaalsele toele ja usaldusväärsusele. AMO-d kasutatakse peamiselt seostamisreeglite arvu vähendamiseks uute treeningfunktsioonidega, mis võivad sisaldada sagedasi reegleid.

44. Mis on A/B testimine?

A/B testimine on defineeritud kui põhiline randomiseeritud kontrollkatse. Seda kasutatakse muutuja kahe versiooni võrdlemiseks, et välja selgitada, milline neist toimib paremini kontrollitud keskkonnas.

A/B testimist saab kõige paremini kasutada kahe mudeli võrdlemiseks, et kontrollida, milline toode on kliendile kõige paremini soovitatud.

45. Selgitage marginaliseerumist ja selle protsessi?

Marginaliseerimine on meetod, mis nõuab ühe muutuja võimalike väärtuste summeerimist, et määrata teise muutuja marginaalne panus.

P(X=x) = ∑YP(X=x,Y)

Masinõppe intervjuu küsimused ja vastused

46. ​​Mis on klastrivalim?

Klasterdamine

Kobarvalim on määratletud kui proovivõtumeetodi tüüp. Klastrite valimiga jagavad teadlased tavaliselt populatsiooni eraldi rühmadesse või komplektidesse, mida nimetatakse klastriteks. Seejärel valitakse populatsioonist juhuslik valim klastreid. Seejärel analüüsib uurija kogutud valimi klastrite andmeid.

47. Selgitage mõistet 'Dimensioonilisuse needus'?

Mõõtmelisuse needus viitab põhimõtteliselt vea suurenemisele koos tunnuste arvu suurenemisega. Seda võib viidata asjaolule, et algoritme on jõuline projekteerida suurtes mõõtmetes ja nende tööaeg on sageli mõõtmetes eksponentsiaalne.

48. Kas saate nimetada mõned Pythonis kasutatavad teegid, mida kasutatakse andmeanalüüsi ja teaduslike arvutuste jaoks?

  1. NumPy
  2. SciPy
  3. pandad
  4. SciKit
  5. Matplotlib
  6. Seaborn
  7. Bokeh

49. Mis on kõrvalekalded? Mainige meetodeid kõrvalekalletega toimetulemiseks?

Kõrvalväärtust saab defineerida kui objekti, mis erineb oluliselt teistest objektidest. Need võivad olla põhjustatud täitmisveadest.

Kolm peamist meetodit kõrvalekallete käsitlemiseks on järgmised:

  1. Ühemõõtmeline meetod
  2. Mitme muutujaga meetod
  3. Minkowski viga

50. Loetlege mõned populaarsed jaotuskõverad koos stsenaariumitega, kus te neid algoritmis kasutate?

Kõige populaarsemad jaotuskõverad on:

Ühtlane jaotus võib defineerida kui tõenäosusjaotust, millel on konstantne tõenäosus. Näide: ühe täringu viskamine, kuna sellel on mitu tulemust.

Binoomjaotus on defineeritud kui tõenäosus, millel on ainult kaks võimalikku tulemust. Näide: mündiviskamine. Tulemuseks on kas pead või sabad.

Normaaljaotus määrab, kuidas muutuja väärtused jaotatakse. Näide: õpilaste pikkus klassiruumis.

Kalade jaotus aitab ennustada konkreetsete sündmuste tõenäosust, kui teate, kui sageli see sündmus on aset leidnud.

Eksponentjaotus puudutab peamiselt aega, mis kulub konkreetse sündmuse toimumiseni. Näide: kui kaua võib auto aku vastu pidada kuudes.

Masinõppe intervjuu küsimused ja vastused

51. Kas saate loetleda eeldused andmete täitmiseks enne lineaarse regressiooniga alustamist?

Eeldused, mida tuleb täita, on järgmised:

  1. Lineaarne suhe
  2. Mitmemõõtmeline normaalsus
  3. Multikollineaarsus puudub või vähene
  4. Automaatne korrelatsioon puudub
  5. Homoskedastilisus

52. Selgitage mõiste dispersiooni inflatsiooniteguri keskmine?

Dispersiooni inflatsioonitegur, mis on VIF, on defineeritud kui multikollineaarsuse suuruse mõõt mitme regressioonimuutuja komplektis.

Matemaatiliselt on regressioonimudeli muutuja dispersiooni inflatsioonitegur võrdne mudeli lõpliku dispersiooni ja seda üksikut sõltumatut muutujat sisaldava mudeli dispersiooni suhtega.

See suhe arvutatakse iga sõltumatu muutuja jaoks. Kõrge VIF näitab, et seotud sõltumatu muutuja on väga kollineaarne mudeli teiste muutujatega.

53. Kas saate meile öelda, millal lineaarne regressioonisirge lõpetab pöörlemise või leiab optimaalse koha, kuhu see andmetele sobitub?

Koht, kus RS-ruudu suurim väärtus leitakse, on koht, kus joon peatub. RSquared esindab tavaliselt dispersiooni suurust, mille hõivab virtuaalne lineaarne regressioonijoon w.r.t andmestiku jäädvustatud kogu dispersioonist.

54. Kas saate meile öelda, millist masinõppe algoritmi nimetatakse laisaks õppijaks ja miks seda nii nimetatakse?

KNN masinõppe algoritmi nimetatakse laisaks õppijaks. K-NN on määratletud kui laisk õppija, kuna ta ei õpi antud treeningandmetest masinõpitud väärtusi ega muutujaid, vaid arvutab dünaamiliselt distantsi iga kord, kui soovib klassifitseerida. Seetõttu jätab see selle asemel treeninguandmestiku meelde.

55. Kas saate meile öelda, mis võib olla probleem, kui konkreetse muutuja beetaväärtus varieerub igas alamhulgas liiga palju, kui regressiooni käitatakse andmestiku erinevatel alamhulkadel?

Iga alamhulga beetaväärtuste variatsioonid viitavad sellele, et andmestik on heterogeenne. Selle probleemi lahendamiseks kasutame antud andmestiku iga rühmitatud alamhulga jaoks erinevat mudelit või kasutame mitteparameetrilist mudelit, näiteks otsustuspuud.

56. Kuidas valida klassifikaatorit koolituskomplekti andmete suuruse alusel?

Näiteks kui treeningkomplekt on väikese suurusega, suure kallutatusega või väikese dispersiooniga mudelid, kipuvad Naive Bayes paremini hakkama saama, kuna neil on väiksem tõenäosus üle istuda.

Kui treeningkomplekt on suur, kipuvad väikese kallutatuse või suure dispersiooniga mudelid, näiteks logistiline regressioon, paremini toimima, kuna need võivad peegeldada keerulisemaid seoseid.

57. Kas masinõppe mudelis eristada koolituskomplekti ja testikomplekte?

Treeningkomplekt Testkomplekt
70% koguandmetest võetakse treeningandmete kogumina.Ülejäänud 30% võetakse testimise andmekogumina.
Seda rakendatakse mudeli koostamiseks.Seda kasutatakse ehitatud mudeli kinnitamiseks.
Need on märgistatud andmed, mida kasutatakse mudeli koolitamiseks.Tavaliselt testime ilma märgistatud andmeteta ja seejärel kontrollime tulemusi siltide abil.

58. Selgitage valepositiivset ja valenegatiivset ning kuidas need on olulised?

TO valepositiivne on kontseptsioon, mille puhul saate antud testi kohta positiivse tulemuse, kui tegelikult oleksite pidanud saama negatiivse tulemuse. Seda nimetatakse ka valehäireks või valepositiivseks veaks. Seda kasutatakse peamiselt meditsiinivaldkonnas, kuid seda saab kasutada ka tarkvara testimisel.

Näited valepositiivsetest kohtadest:

  1. Rasedustesti on positiivne, kui tegelikult te ei ole rase.
  2. Vähi sõeluuringu test on positiivne, kuid teil pole haigust.
  3. Sünnieelsed testid on Downi sündroomi suhtes positiivsed, kui teie lootel ei ole mingeid häireid.
  4. Teie süsteemi viirustarkvara tuvastab kahjutu programmi valesti pahatahtlikuna.

TO vale negatiivne on määratletud, kui negatiivne testitulemus on vale. Lihtsamalt öeldes saate negatiivse testitulemuse, kus oleks pidanud saama positiivse testitulemuse.

Näiteks kaaluge rasedustesti tegemist ja teie test on negatiivne (mitte rase). Kuid tegelikult olete rase.

Valenegatiivsed rasedustesti tulemused liiga varajase testi tegemise, lahjendatud uriini kasutamise või tulemuste õigeaegse kontrollimise tõttu. Peaaegu igal meditsiinilisel testil on valenegatiivse tulemuse oht.

59. Selgitage mõistet pooljärelevalvega masinõpe?

Pooljärelevalvega õpe on defineeritud kui masinõppe lähenemisviis, mis ühendab koolitusprotsessi ajal väiksema hulga märgistatud andmeid suure hulga märgistamata andmetega. See jääb juhendamata õppimise ja juhendatud õppimise vahele.

60. Kas saate meile öelda, millised on juhendatud masinõppe rakendused kaasaegsetes ettevõtetes?

  1. Tervishoiu diagnoos
  2. Pettuste avastamine
  3. Meili rämpsposti tuvastamine
  4. Sentimentaalne analüüs

61. Kas saate vahet teha induktiivsel masinõppel ja deduktiivsel masinõppel?

Induktiivne masinõpe Deduktiivne masinõpe
A ⋀ B ⊢ A → B (induktsioon)A ⋀ (A –> B) ⊢ B (mahaarvamine)
Ta vaatleb ja õpib juhtumite kogumit ning teeb seejärel järelduse.Ta teeb kõigepealt järelduse ja seejärel töötab selle põhjal eelmise otsuse põhjal.
See on statistiline masinõpe nagu KNN või SVM,Masinõppe algoritm deduktiivseks arutluseks otsustuspuu abil.

62. Mis on Random Forest masinõppes?

Juhuslikku metsa saab määratleda kui juhendatud õppealgoritmi, mida kasutatakse klassifitseerimiseks ja regressiooniks. Sarnaselt loob juhuslik metsaalgoritm andmevalimitele otsustuspuud, seejärel saab igast valimist ennustuse ja valib lõpuks hääletamise teel välja parima.

63. Selgitage kallutatuse ja dispersiooni vahelist kompromissi?

Eelarvamus saab määratleda kui mudelis tehtud eeldused, mis muudavad sihtfunktsiooni hõlpsaks ligikaudseks.

Dispersioon on defineeritud kui summa, mida sihtfunktsiooni hinnang erinevaid treeningandmeid arvestades muutub.

The kompromiss on defineeritud kui pinge nihkest põhjustatud vea ja dispersiooni vahel.

64. Selgitage otsustuspuude pügamist ja kuidas seda tehakse?

Kärpimine on masinõppe- ja otsingualgoritmide andmete tihendamise protsess, mis võib vähendada otsustuspuude suurust, eemaldades puu teatud osad, mis ei ole eksemplaride klassifitseerimiseks kriitilised ja mittevajalikud. Liiga suur puu võib treeningandmeid üle sobitada ja see on uutele näidistele halvasti üldistav.

Kärpimine võib toimuda järgmiselt.

  1. Ülevalt alla (see liigub sõlmede vahel ja kärbib alampuid alustades juurest)
  2. Alt-üles mood (see algab lehtede sõlmedest)

Oleme vähendanud otsustuspuude kärpimise veaalgoritmi.

65. Kuidas vähendatud veaalgoritmid töötavad otsustuspuude pügamisel?

Vähendatud vea algoritm töötab järgmiselt:

  1. See arvestab pügamiseks iga sõlme.
  2. Kärpimine = alampuu eemaldamine sellest sõlmest, seejärel tehakse sellest leht ja määratakse sellele sõlmele peamine ühine klass.
  3. Sõlm eemaldatakse puust, kui saadud puu toimib algsest halvemini.
  4. Sõlmed eemaldatakse iteratiivselt, valides sõlme selliselt, et mille eemaldamine suurendab enamasti graafiku otsustuspuu täpsust.
  5. Pügamine jätkub seni, kuni edasine pügamine on kahjulik.
  6. See kasutab koolitust, testikomplekte ja valideerimist. See on tõhus lähenemisviis, kui saadaval on suur hulk andmeid.
Vaata ka 100 parimat JavaScripti intervjuu küsimust ja vastust

66. Selgitage mõistet otsustuspuu klassifikatsioon?

Otsustuspuu loob klassifikatsioonimudeleid puustruktuurina, kusjuures andmestikud jagatakse otsustuspuu väljatöötamise ajal väiksemateks alamhulkadeks; Põhimõtteliselt on see puutaoline viis, mille oksad ja sõlmed on määratletud. Otsustuspuud töötlevad nii kategoorilisi kui ka arvulisi andmeid.

67. Selgitage logistilist regressiooni?

Logistiline regressioonanalüüs on meetod, mida kasutatakse sõltumatute muutujate seose uurimiseks ühe dihhotoomse sõltuva muutujaga. See on vastupidine lineaarsele regressioonianalüüsile, kus sõltuv muutuja on pidev muutuja.

Iga kord, kui logistilise regressiooni väljund on 0 või 1, mille läviväärtus on 0,5. Iga väärtus, mis on suurem kui 0,5, loetakse 1-ks ja mis tahes punkt, mis on väiksem kui 0,5, loetakse 0-ks.

68. Nimetage mõni mõõtmelisuse vähendamise meetod?

Mõned mõõtmete vähendamise meetodid on toodud allpool:

  1. Kombineerides funktsioonid funktsioonitehnoloogiaga
  2. Kollineaarsete tunnuste eemaldamine
  3. kasutades algoritmilist mõõtmete vähendamist.

69. Mis on soovitussüsteem?

Soovitussüsteemid koguvad peamiselt klientide andmeid ja analüüsivad neid automaatselt, et luua klientidele kohandatud soovitusi. Need süsteemid toetuvad peamiselt kaudsetele andmetele, nagu sirvimisajalugu ja hiljutised ostud, ning selgesõnalistele andmetele, nagu kliendi antud hinnangud.

masinõppe küsimused – soovitussüsteem

70. Selgitage K lähima naabri algoritmi?

K-Lähim naaber on lihtsaim masinõppe algoritm, mis põhineb juhendatud õppe tehnikal. See eeldab uue juhtumi või andmete ja saadaolevate juhtumite sarnasust ning paigutab uue juhtumi kategooriasse, mis on sarnane olemasolevate kategooriatega.

Näiteks on meil pilt olendist, mis näeb välja sarnane kassi ja koera omaga, kuid me tahame teada, kas see on kass või koer. Selle tuvastamiseks saame kasutada KNN-i algoritmi, kuna see töötab sarnasuse alusel. KNN-i mudel leiab uue andmestiku sarnasused kasside ja koerte piltidega ning see põhineb sarnastel omadustel; see paneb selle kassi või koera kategooriasse.

71. Arvestades antud pikka masinõppe algoritmide loendit ja andmekogumit, kuidas e-kirjade rämpspostifiltreid toidetakse sadade kirjadega otsustad, millist kasutada?

Algoritmi valimine sõltub alltoodud küsimustest:

  1. Kui palju andmeid teil on ja kas see on pidev või kategooriline?
  2. Kas probleem on seotud klassifitseerimise, rühmitamise, assotsiatsiooni või regressiooniga?
  3. Kas see on eelmääratletud muutuja (sildiga), märgistamata või mõlema segu?
  4. Mis on peamine eesmärk?

Ülaltoodud küsimuste põhjal tuleb valida õige algoritm, mis vastab nende nõudmistele.

72. Kas saate meile öelda, kuidas kujundada rämpspostifiltrit?

  1. Meili rämpspostifiltrit toidetakse sadade kirjadega.
  2. Kõigil neil meilidel on silt: „rämpspost” või „pole rämpspost”.
  3. Järelevalvega masinõppe algoritm tuvastab seejärel rämpsposti märksõnade alusel, mis tüüpi meilid märgitakse rämpspostiks, näiteks loterii, raha puudumine, täielik tagasimakse jne.
  4. Järgmine kord, kui meil postkasti jõuab, kasutab rämpspostifilter statistilist analüüsi ja algoritme, nagu otsustuspuud ja SVM, et tuvastada, kui tõenäoline meil on rämpspost.
  5. Kui tõenäosus on suur, märgistatakse see rämpspostiks ja e-kiri ei jõua teie postkasti.
  6. Lähtudes iga mudeli täpsusest, kasutame pärast kõigi antud mudelite testimist kõrgeima töökindlusega algoritmi.

73. Kuidas saate vältida liigset istumist?

Ülepaigutamist saab vältida, järgides järgmisi samme:

    Ristvalideerimine: Idee on kasutada esialgseid treeninguandmeid erinevate väikeste rongikatsete lekete genereerimiseks. Kus neid testreostusi kasutatakse mudeli häälestamiseks.Treenige rohkemate andmetega: Suure hulga andmetega treenimine võib aidata algoritmidel signaale paremini tuvastada.Eemalda funktsioon: saate mõned funktsioonid käsitsi eemaldada.Varajane peatumine:See viitab koolitusprotsessi peatamisele enne, kui õppija läbib määratud punkti.Regulariseerimine: See viitab paljudele tehnikatele, mille abil sundida mudelit kunstlikult lihtsaks.Kokkupanek: need on masinõppe algoritmid, mis kombineerivad ennustusi mitmest erinevast mudelist.

74. Selgitage terminit Selection bias in masinõppes?

Valiku kallutatus toimub siis, kui andmekogumi näited on valitud nii, et see ei peegelda nende tegelikku levikut. Valiku kallutatus võib esineda mitmel erineval kujul.

    Katvuse eelarvamus: andmed siin ei ole tüüpiliselt valitud.

Näide: mudelit koolitatakse selliselt, et ta ennustaks uue toote tulevast müüki toote ostnud klientide valimiga tehtud telefoniküsitluste põhjal. Tarbijaid, kes valisid hoopis konkureeriva toote ostmise, ei küsitletud ja seetõttu ei olnud see inimeste hulk koolitusandmetes esindatud.

    Vastamata jätmise eelarvamus: Andmed pole andmekogumises osalemise lünkade tõttu tüüpilised.

Näide. Mudelit koolitatakse selliselt, et ennustada uue toote tulevast müüki, tuginedes telefoniküsitlustele, mis viidi läbi toote ostnud klientide valimiga ja konkureeriva toote ostnud klientide valimiga. Konkureeriva toote ostnud kliendid keeldusid küsitlusest 80% sagedamini ning nende andmed olid valimis alaesindatud.

    Valimi kallutatus:Siin , andmete kogumise käigus ei kasutata õiget randomiseerimist.

Näide: mudel, mis on koolitatud ennustama uue toote tulevast müüki, tuginedes telefoniküsitlustele, mis viidi läbi toote ostnud klientide valimi ja konkureeriva toote ostnud klientide valimiga. Juhusliku klientide sihtimise asemel valis küsitleja esimesed 200 nende meilile vastanud tarbijat, kes võisid olla toote suhtes innukad kui keskmised ostjad.

75. Selgitage juhendatud õppe liike?

Juhendatud õpet on kahte tüüpi, nimelt

    Regressioon:See on omamoodi juhendatud õpe, mis õpib antud märgistatud andmekogumitest ja seejärel suudab ennustada algoritmile antud uute andmete pideva väärtusega väljundit. Seda kasutatakse juhtudel, kui väljundi nõue on arv, nagu raha või pikkus jne. Mõned populaarsed juhendatud õppimise algoritmid on lineaarne regressioon, logistiline regressioon.
    Klassifikatsioon:See on omamoodi õpe, kus algoritm tuleb vastendada uute andmetega, mis on saadud ühest kahest andmestiku klassist. Klassid tuleb vastendada kas 1-le või 0-le, mis tegelikkuses tähendab 'jah' või 'ei'. Väljund peab olema kas üks klassidest ja see ei tohiks olla arv, nagu see oli Regressiooni korral. Mõned kõige tuntumad algoritmid on otsustuspuud, naiivne Bayesi klassifikaator, tugivektori algoritmid.

76. Mis kaduv gradient laskumine?

Masinõppes puutume kokku kaduva gradiendi probleemiga, kui treenime närvivõrke gradiendipõhiste meetoditega, nagu tagasilevi. See probleem raskendab antud võrgu varasemate kihtide parameetrite häälestamist ja õppimist.

Kaduvate gradientide probleemi võib võtta kui üht näidet ebastabiilsest käitumisest, millega võime sügava närvivõrgu treenimisel kokku puutuda.

See kirjeldab olukorda, kus sügav mitmekihiline feed-forward võrk või korduv närvivõrk ei suuda levitada kasulikku gradiendi teavet mudeli antud väljundotsast tagasi mudeli sisendotsa lähedal asuvatesse kihtidesse.

77. Kas saate nimetada pakutud meetodeid kaduva gradiendi probleemi lahendamiseks?

Kaduvate gradiendiprobleemide ületamiseks pakutud meetodid on järgmised:

  1. Mitmetasandiline hierarhia
  2. Pikaajaline lühiajaline mälu
  3. Kiirem riistvara
  4. Jääknärvivõrgud (ResNets)
  5. Jätka

78. Tee vahet Andmekaevandamine ja masinõpe?

Andmete kaevandamine Masinõpe
See eraldab suurest andmehulgast kasulikku teavet.See tutvustab algoritme nii andmete kui ka varasemate kogemuste põhjal.
Seda kasutatakse andmevoo mõistmiseks.See õpetab arvuteid andmevoogudest õppima ja mõistma.
Sellel on tohutud andmebaasid struktureerimata andmetega.Sellel on nii olemasolevad andmed kui ka algoritmid.
See nõuab inimese sekkumist sellesse.Pärast projekteerimist pole vaja inimlikku pingutust
Mudelid töötatakse välja andmekaeve tehnikat kasutadesmasinõppe algoritmi saab kasutada otsustuspuus, närvivõrkudes ja mõnes muus tehisintellekti osades
See on rohkem uurimistöö, kasutades selliseid meetodeid nagu masinõpe.See on iseõppinud ja koolitab süsteemi intelligentseid ülesandeid tegema.

79. Nimetage masinõppe erinevad algoritmitehnikad?

Masinõppe erinevad algoritmitehnikad on loetletud allpool.

  1. Järelevalveta õppimine
  2. Õppimine pooleldi juhendamisel
  3. Transduktsioon
  4. Tugevdusõpe
  5. Õppima õppima
  6. Juhendatud õpe

80. Selgitage 'Järelevalveta õppimise' funktsiooni?

  1. See peab leidma andmete klastrid.
  2. Leidke andmete madalamõõtmelised esitused
  3. Andmetes huvitavate juhiste leidmiseks
  4. Huvitavate koordinaatide ja korrelatsioonide arvutamiseks.
  5. Otsige uudseid vaatlusi või andmebaasi puhastamist.

81. Selgitage masinõppe mõistet klassifikaator?

Masinõppe klassifikaator on defineeritud kui algoritm, mis liigitab andmed automaatselt ühte või mitmesse klassi rühma. Üks levinumaid näiteid on meiliklassifikaator, mis suudab e-kirju skannida, et filtreerida need antud klassisiltide järgi: rämpspost või mitte rämpspost.

Meil on viit tüüpi klassifitseerimisalgoritme, nimelt

  1. Otsuste puu
  2. Naiivne Bayesi klassifikaator
  3. K-Lähimad naabrid
  4. Toetage vektormasinaid
  5. Kunstlikud närvivõrgud

82. Mis on geneetilised algoritmid ?

Geneetilised algoritmid on defineeritud kui stohhastilised otsingualgoritmid, mis võivad toimida võimalike lahenduste populatsioonile. Tehisintellektis kasutatakse geneetilisi algoritme peamiselt võimalike lahenduste otsimiseks, et leida üks, kes suudab probleemi lahendada.

83. Kas oskate nimetada ala, kus saab kasutada mustrituvastust?

  1. Kõnetuvastus
  2. Statistika
  3. Mitteametlik otsimine
  4. Bioinformaatika
  5. Andmete kaevandamine
  6. Arvutinägemine

84. Selgitage masinõppes mõistet Perceptron?

Perceptron on defineeritud kui binaarsete klassifikaatorite juhendatud õppimise algoritm. See algoritm võimaldab neuronitel õppida ja töödelda antud treeningkomplekti elemente ükshaaval. Perceptroneid on kahte tüüpi, nimelt.

  1. Ühekihiline
  2. Mitmekihiline.

85. Mis on Isotooniline regressioon?

Isotoonset regressiooni kasutatakse iteratiivselt ideaalsete vahemaade sobitamiseks, et kaitsta suhtelist erinevust. Isotoonset regressiooni kasutatakse ka tõenäosuslikus klassifikatsioonis, et tasakaalustada juhendatavate masinõppemudelite prognoositud tõenäosusi.

86. Mis on Bayesi võrgud?

Bayesi võrku saab defineerida kui tõenäosuslikku graafilist mudelit, mis esitab DAG-i (suunatud atsüklilise graafiku) kaudu muutujate komplekti ja nende tingimuslikke sõltuvusi.

Näiteks Bayesi võrk esindaks tõenäosuslikke seoseid haiguste ja nende sümptomite vahel. Arvestades spetsiifilisi sümptomeid, saab võrku kasutada erinevate haiguste esinemise võimaluste arvutamiseks.

87. Kas saate selgitada Bayesi loogikaprogrammi kahte komponenti?

Bayesi loogikaprogramm koosneb peamiselt kahest komponendist.

  1. Esimene komponent on loogiline: see sisaldab Bayesi klauslite komplekti, mis kajastab domeeni kvalitatiivset struktuuri.
  2. Teine komponent on kvantitatiivne: see kodeerib kvantitatiivset teavet domeeni kohta.

88. Mis on inkrementaalõppe algoritm ansamblis?

Inkrementaalset õppemeetodit määratletakse kui algoritmi võimet õppida uutest andmetest, mis on saadaval pärast seda, kui klassifikaator on juba olemasolevast andmekogumist juba loodud.

89. Nimeta relatsioonilise hindamise tehnikate komponendid?

Relatsioonilise hindamise tehnika komponendid on loetletud allpool:

  1. Andmete hankimine
  2. Põhitõe omandamine
  3. Ristvalideerimise tehnika
  4. Päringu tüüp
  5. Hindamismõõdik
  6. Olulisuse test

90. Kas saate selgitada klassifikatsioonivea bias-variance decomposition ansamblimeetodil?

Õppealgoritmi eeldatava vea saab jagada nihkeks ja dispersiooniks. Eelarvamus on mõõt, mis näitab, kui täpselt õppealgoritmi loodud keskmine klassifikaator sihtfunktsiooniga ühtib. Dispersioonitermin mõõdab, kui palju õpialgoritmi ennustus erinevate treeningkomplektide puhul kõigub.

91. Nimetage järjestikuse juhendatud õppe erinevad meetodid?

Allpool on toodud erinevad meetodid järjestikuse juhendatud õppe jaoks:

  1. Korduvad lükandaknad
  2. Varjatud Markow mudelid
  3. Maksimaalne entroopia Markow mudelid
  4. Tingimuslikud juhuslikud väljad
  5. Graafiktrafode võrgud
  6. Lükandakna meetodid

92. Mis on pakettstatistika õpe?

Treeningu andmestik on jagatud üheks või mitmeks partiiks. Kui ühe partii loomisel kasutatakse kõiki koolitusnäidiseid, nimetatakse seda õppimisalgoritmi partii gradiendi laskumiseks. Kui antud partii on ühe valimi suurune, nimetatakse õppimisalgoritmi stohhastiliseks gradiendi laskumiseks.

93. Kas oskate nimetada robootika ja infotöötluse valdkondi, kus tekib järjestikuse ennustamise probleem?

Allpool on toodud robootika ja infotöötluse valdkonnad, kus tekib järjestikuse ennustamise probleem

  1. Struktureeritud ennustus
  2. Mudelipõhine tugevdusõpe
  3. Imitatsiooniõpe

94. Nimetage erinevad kategooriad, mida saate järjestusõppe protsessi kategoriseerida?

Erinevad kategooriad, kuhu saate järjestusõppe protsessi kategoriseerida, on loetletud allpool.

  1. Jada genereerimine
  2. Järjestuste tuvastamine
  3. Järjestikune otsus
  4. Järjestuse ennustamine

95. Mis on järjestuse ennustamine?

Järjestuse ennustamise eesmärk on ennustada jada elemente eelnevate elementide põhjal.

Ennustusmudelit treenitakse treeningjärjestuste komplektiga. Treeningul kasutatakse mudelit järjestuste ennustamiseks. Prognoos hõlmab jada järgmiste üksuste ennustamist. Sellel ülesandel on mitmeid rakendusi, nagu veebilehtede eellaadimine, ilmaennustus, tarbekaupade soovitused ja börsiennustused.

Järjestuse ennustamise probleemide näited on järgmised:

    Ilmaennustus. Arvestades vaatluste jada konkreetse ilma kohta teatud aja jooksul, ennustab see homset oodatavat ilma.Börsiennustus. Arvestades väärtpaberi liikumiste jada teatud aja jooksul, ennustab see väärtpaberi järgmist liikumist.Toote soovitus. Arvestades kliendi viimaste ostude järjestust, ennustab see kliendi järgmist ostu.

96. Selgitage PAC õppimist?

Tõenäoliselt ligikaudu õige, st PAC-õpe on defineeritud kui teoreetiline raamistik, mida kasutatakse õppimisalgoritmi üldistusvea analüüsimiseks antud treeningkomplekti vea ja mõningate keerukuse mõõtmiste osas. Peamine eesmärk on siin tavaliselt näidata, et algoritm suudab suure tõenäosusega saavutada madala üldistusvea.

97. Mis on PCA, KPCA ja ICA ning milleks neid kasutatakse?

Põhikomponentide analüüs (PCA): See muudab algsed sisendid lineaarselt uuteks korrelatsioonita funktsioonideks.

Kernelipõhine põhikomponentide analüüs (KCPA) : see on mittelineaarne PCA, mis on välja töötatud kerneli meetodil.

Sõltumatu komponentide analüüs (ICA): ICA-s teisendatakse algsed sisendid lineaarselt teatud tunnusteks, mis on üksteisest statistiliselt sõltumatud.

98. Selgitage masinõppes mudeli loomise kolme etappi?

Kolm etappi on järgmised:

  1. Mudeli ehitamine
  2. Mudeli testimine
  3. Mudeli rakendamine

99. Selgitage mõistet hüpotees ML-is?

Masinõpet, eriti juhendatud õpet, saab määratleda kui soovi kasutada saadaolevaid andmeid funktsiooni õppimiseks, mis kaardistab kõige paremini sisendid väljunditega.

Tehniliselt nimetatakse seda probleemi funktsiooni lähendamiseks, kus me lähendame tundmatut sihtfunktsiooni, mille olemasolu eeldame, et see suudab antud sisendid väljunditeks kõige paremini kaardistada, võttes arvesse probleemi domeeni kõiki võimalikke kaalutlusi.

Mudeli näidet, mis lähendab sihtfunktsiooni ja teostab sisendite vastendamist väljunditega, on masinõppes tuntud kui hüpotees.

Algoritmi valik ja algoritmi konfiguratsioon määratlevad võimalike hüpoteeside ruumi, mida mudel võib moodustada.

100. Selgitage masinõppe mõisteid Eepoch, Eentropy, Bbias ja Vvariance?

Epohh on masinõppes laialdaselt kasutatav termin, mis näitab kogu koolituse andmestiku läbimiste arvu, mille masinõppealgoritm on lõpetanud. Kui partii suurus on kogu treeningu andmekogum, määratletakse epohhide arv iteratsioonide arvuna.

Entroopia masinõppes võib defineerida kui häire või ebakindluse mõõdikut. Masinõppemudelite ja andmeteadlaste peamine eesmärk üldiselt on ebakindluse vähendamine.

Andmed eelarvamus on vea tüüp, mille puhul teatud andmestiku elemendid on teistest suurema kaaluga.

Dispersioon on määratletud kui summa, mida sihtfunktsiooni hinnang muutub, kui kasutatakse teistsugust treeningandmete kogumit. Sihtfunktsiooni hindab tavaliselt treeningandmete põhjal masinõppe algoritm.

Edu teile masinõppeintervjuul. Loodame, et meie masinõppeintervjuu küsimused ja vastused olid teile abiks. Saate vaadata ka meie Küberturvalisuse intervjuu küsimused ja vastused mis võib teile veidi abiks olla.