Top 100 des questions et réponses d'entretien sur l'apprentissage automatique

2 janvier 2022

Apprentissage automatique est une méthode d'analyse de données qui automatise la construction de modèles analytiques. Il s'agit d'une branche de l'intelligence artificielle basée sur l'idée que les systèmes peuvent apprendre à partir des données, et qu'elle peut identifier des modèles et prendre des décisions avec moins d'intervention humaine.

L'apprentissage automatique est largement utilisé dans les moteurs de recherche Internet, les filtres de messagerie pour trier les sites Web de spam, les logiciels bancaires pour détecter les transactions inhabituelles ou corrompues, et il est utilisé dans de nombreuses applications sur les téléphones comme la reconnaissance vocale.

Table des matières



Une carrière dans l'apprentissage automatique ?

On s'attend à ce que l'intelligence artificielle crée une valeur commerciale d'environ 4 milliards de dollars d'ici la fin de 2022. Plus d'un tiers des entreprises ont déjà commencé à investir dans l'apprentissage automatique et la science des données, ou prévoient de le faire dans les temps à venir. .

Si nous parlons d'opportunités d'emploi pour les ingénieurs en apprentissage automatique, il y a eu une augmentation de plus de 330% des offres d'emploi pour ce poste dans le monde au cours de la période 2015-2018.

Vous pouvez faire une bonne carrière dans les emplois d'apprentissage automatique. Nous avons noté les questions et réponses d'entrevue les plus fréquemment posées sur l'apprentissage automatique. Assurez-vous de parcourir l'intégralité de notre blog afin de ne manquer aucune des questions et réponses de l'entretien sur l'apprentissage automatique.

Principales questions et réponses des entretiens sur l'apprentissage automatique

1. Veuillez expliquer l'apprentissage automatique, l'intelligence artificielle et l'apprentissage en profondeur ?

apprentissage automatique

L'apprentissage automatique est défini comme un sous-ensemble de l'intelligence artificielle et contient les techniques qui permettent aux ordinateurs de trier les choses à partir des données et de fournir des applications d'intelligence artificielle.

Intelligence artificielle (IA) est une branche de l'informatique qui se concentre principalement sur la construction de machines intelligentes capables d'effectuer certaines tâches qui nécessitent principalement l'intelligence humaine. C'est l'aventure de reproduire ou de simuler l'intelligence humaine dans des machines.

L'apprentissage en profondeur peut être défini comme une classe d'algorithmes d'apprentissage automatique dans l'intelligence artificielle qui utilise principalement plusieurs couches pour extraire de manière cumulative des fonctionnalités de niveau supérieur à partir de l'entrée brute donnée.

2. À quel point l'apprentissage automatique est-il difficile ?

L'apprentissage automatique est énorme et comprend beaucoup de choses. Par conséquent, il faudra plus de six mois pour apprendre l'apprentissage automatique si vous passez au moins 6 à 7 heures par jour. Si vous avez de bonnes compétences pratiques en mathématiques et en analyse, six mois vous suffiront.

3. Pouvez-vous expliquer Kernel Trick dans un algorithme SVM ?

Un Kernel Trick est une méthode dans laquelle les données non linéaires sont projetées sur un espace de dimension plus grand afin de faciliter la classification des données là où elles peuvent être divisées linéairement par un plan.

4. Pouvez-vous énumérer certaines des techniques de validation croisée les plus populaires ?

Certaines des techniques de validation croisée populaires sont répertoriées ci-dessous :

    Méthode d'exclusion :Ce type de technique fonctionne en supprimant la partie de l'ensemble de données d'apprentissage et en l'envoyant au modèle qui a été formé sur l'ensemble de données restant pour obtenir les prédictions requises.Validation croisée K-Fold :Ici, les données sont divisées en k sous-ensembles de sorte qu'à chaque fois, l'un des k sous-ensembles peut être utilisé comme ensemble de validation, et les autres k-1 sous-ensembles sont utilisés comme ensemble d'apprentissage.Validation croisée K-Fold stratifié :Il fonctionne sur des données déséquilibrées.Validation croisée Leave-P-Out :Ici, nous laissons p points de données hors des données de formation sur les n points de données, puis nous utilisons les n-p échantillons pour former le modèle et p points pour l'ensemble de validation.

5. Différences entre les algorithmes de bagging et de boosting ?

Ensachage Booster
C'est une méthode qui fusionne le même type de prédictions.C'est une méthode qui fusionne les différents types de prédictions.
Il diminue la variance, pas le biaisCela diminue le biais, pas la variance.
Chaque modèle reçoit un poids égalLes modèles sont pesés en fonction des performances.

Questions et réponses d'entrevue sur l'apprentissage automatique

6. Que sont les noyaux dans SVM ? Pouvez-vous énumérer quelques noyaux populaires utilisés dans SVM ?

Le noyau est essentiellement utilisé pour définir les fonctions mathématiques utilisées dans la machine à vecteurs de support en fournissant la fenêtre permettant de manipuler les données. La fonction noyau est utilisée pour transformer l'ensemble de données d'apprentissage afin qu'une surface de décision non linéaire soit transformée en une équation linéaire dans un plus grand nombre d'espaces de dimension.

Certains des noyaux populaires utilisés dans SVM sont :

  1. Noyau polynomial
  2. Noyau gaussien
  3. Fonction de base radiale gaussienne (RBF)
  4. Noyau de Laplace RBF
  5. Noyau tangent hyperbolique
  6. Noyau sigmoïde
  7. Fonction de Bessel du premier type Noyau
  8. Noyau de base radiale ANOVA

7. Pouvez-vous expliquer l'erreur OOB ?

Une erreur hors sac appelée erreur OBB, également connue sous le nom d'estimation hors sac, est une technique permettant de mesurer l'erreur de prédiction des forêts aléatoires, des arbres de décision boostés. Le bagging utilise principalement le sous-échantillonnage avec remplacement pour créer les échantillons d'apprentissage pour que le modèle en tire des leçons.

8. Pouvez-vous faire la différence entre les algorithmes K-Means et KNN ?

K-Moyennes Algorithmes KNN
C'est de l'apprentissage automatique non supervisé.C'est de l'apprentissage automatique supervisé.
Il s'agit d'un algorithme d'apprentissage automatique de clustering.Il s'agit d'un algorithme d'apprentissage automatique de classification ou de régression.
Ses performances sont lentes.Il fonctionne beaucoup mieux.
C'est un apprenant désireux.C'est un apprenant paresseux.

9. Expliquez le terme facteur d'inflation de la variance signifie ?

Le facteur d'inflation de la variance connu sous le nom de VIF est une mesure de la quantité de multicolinéarité dans l'ensemble donné de variables de régression multiples. Ici, le rapport est calculé pour chacune des variables indépendantes. Un VIF élevé signifie que la variable indépendante associée est majoritairement colinéaire avec les autres variables du modèle.

10. Expliquer les SVM (Support Vector Machines) dans l'apprentissage automatique ?

Support Vector Machine, connu sous le nom de SVM, est l'un des algorithmes d'apprentissage supervisé les plus couramment utilisés, principalement utilisé pour les problèmes de classification et de régression. Il est principalement utilisé pour les problèmes de classification dans l'apprentissage automatique.

Voir également Top 100 des questions et réponses d'entrevue Ansible

L'objectif principal de l'algorithme SVM est de créer la meilleure limite de décision, qui sépare l'espace à n dimensions en classes afin que l'on puisse facilement placer le nouveau point de données obtenu dans la bonne catégorie à l'avenir.

Questions et réponses d'entrevue sur l'apprentissage automatique

11. Faire la différence entre l'apprentissage automatique supervisé et non supervisé ?

Modèle supervisé Modèle non supervisé
Ici, l'algorithme apprend sur un jeu de données étiqueté,Ici, il fournit des données non étiquetées.
Ici, les modèles doivent trouver la fonction de mappage utilisée pour mapper la variable d'entrée (X) avec la variable de sortie (Y).L'objectif principal de l'apprentissage non supervisé est de trouver la structure et les modèles à partir des données d'entrée données.

12. Expliquez les termes Précision et Rappel ?

Précision, également appelée valeur prédictive positive, est définie comme la fraction d'instances pertinentes parmi les instances récupérées.

Précision = TP/TP+FP

Où TP est vrai positif

ID FP faux positif

Rappeler, également connu sous le nom de sensibilité, est défini comme la fraction d'instances pertinentes qui ont été extraites.

Rappel = TP/TP+FP.

Où TP est vrai positif

FP est un faux positif.

13. Différencier la régularisation L1 et L2 ?

Régularisation L1 Régularisation L2
Un modèle de régression qui utilise le processus de régularisation L1 est appelé Lasso Regression.Un modèle de régression qui utilise le processus de régularisation L1 est appelé Ridge Regression.
Lasso Regression ajoute la valeur absolue de l'amplitude du coefficient en tant que terme de pénalité à la fonction de perte.La régression de crête ajoute l'amplitude au carré du coefficient en tant que terme de pénalité à la fonction de perte.
Il essaie d'estimer la médiane des données.Il essaie d'estimer la moyenne des données.

14. Expliquez la transformée de Fourier ?

La transformée de Fourier est un moyen de diviser quelque chose en un tas d'ondes sinusoïdales. En termes de mathématiques, la transformée de Fourier est un processus qui peut transformer un signal en ses composantes et fréquences respectives. La transformée de Fourier est utilisée non seulement dans le signal, la radio, l'acoustique, etc.

15. Quel est le score F1 ? Comment l'utiliser?

Le score F1 combine à la fois la précision et le rappel d'un classificateur en une seule métrique en prenant la moyenne harmonique. Il est utilisé pour comparer les performances de deux classificateurs. Par exemple, le classificateur X a un rappel plus élevé et le classificateur Y a une précision plus élevée. Désormais, les scores F1 calculés pour les deux classificateurs seront utilisés pour prédire lequel produit les meilleurs résultats.

Le score F1 peut être calculé comme

2(P*R)/(P+R)

Où P est la précision.

R est le Rappel du modèle de classification.

Questions et réponses d'entrevue sur l'apprentissage automatique

16. Faire la différence entre les erreurs de type I et de type II ?

Erreur de type I Erreur de type II
Cela équivaut à un faux positif.Cela équivaut à un faux négatif
Il se réfère à la non-acceptation de l'hypothèseIl se réfère à l'acceptation de l'hypothèse
Il peut y avoir un rejet même avec une correspondance autorisée.Il peut y avoir une acceptation même avec un match non autorisé.

17. Pouvez-vous expliquer comment fonctionne une courbe ROC ?

La courbe ROC est représentée graphiquement en traçant le taux de vrais positifs (TPR) par rapport au FPR (taux de faux positifs). Où

  1. Le taux de vrais positifs peut être défini comme la proportion d'observations qui devraient être positives sur toutes les observations positives données.

(TP/(TP + FN))

  1. Le taux de faux positifs est défini comme la proportion d'observations prédites à tort positives sur toutes les observations négatives données.

(FP/(TN + FP))

18. Différencier Deep Learning et Machine Learning ?

L'apprentissage en profondeur Apprentissage automatique
C'est un sous-ensemble de Machine LearningC'est un sur-ensemble du Deep Learning.
Il résout des problèmes complexes.Il est utilisé pour apprendre de nouvelles choses.
C'est une évolution vers le Machine Learning.C'est une évolution de l'IA.
Ici, les algorithmes sont largement auto-représentés sur l'analyse des donnéesLes algorithmes sont détectés par les analystes de données.

19. Pouvez-vous nommer les différents algorithmes de Machine Learning ?

Différents algorithmes d'apprentissage automatique sont répertoriés ci-dessous :

  1. Arbres de décision,
  2. Bayes naïf,
  3. Forêt aléatoire
  4. Soutenir la machine vectorielle
  5. K-plus proche voisin,
  6. regroupement de K-moyennes,
  7. modèle de mélange gaussien,
  8. Modèle de Markov caché etc.

Questions et réponses d'entrevue sur l'apprentissage automatique

20. Qu'est-ce que l'IA ?

À LA

L'IA (intelligence artificielle) fait référence à la simulation de l'intelligence humaine dans des machines programmées pour réfléchir comme des humains et imiter leurs actions.

Exemples : détection et reconnaissance des visages, Google Maps et

Applications de covoiturage, paiements électroniques.

Questions et réponses d'entrevue sur l'apprentissage automatique

21. Comment sélectionner les variables importantes lorsque l'on travaille sur un jeu de données ?

  1. Vous devez supprimer les variables corrélées avant de sélectionner des variables importantes.
  2. Utilisez la régression linéaire et sélectionnez les variables en fonction de leurs valeurs p.
  3. Utilisez la sélection vers l'avant, la sélection pas à pas et la sélection vers l'arrière.
  4. Utiliser Random Forest, Xgboost et tracer un graphique d'importance variable
  5. Utiliser la régression au lasso
  6. Vous devez sélectionner les n principales fonctionnalités en mesurant le gain d'informations pour l'ensemble de fonctionnalités disponibles.

22. Faire la différence entre causalité et corrélation ?

le Causalité s'applique explicitement aux cas où l'action A provoque le résultat de l'action B.

Corrélation peut simplement être défini comme une relation. Lorsque les actions de A peuvent se rapporter aux actions de B mais ici il n'est pas nécessaire qu'un événement provoque l'autre événement.

23. Qu'est-ce que le sur-ajustement ?

Le surajustement est un type d'erreur de modélisation qui se traduit par l'incapacité à prédire ou à deviner efficacement les observations futures ou à ajuster des données supplémentaires dans le modèle qui existe déjà.

24. Expliquez les termes écart-type et variance ?

À écart-type est défini comme le nombre qui spécifie la répartition des valeurs. Un écart-type faible signifie que la plupart des nombres sont proches de la valeur moyenne. L'écart type plus élevé signifie que les valeurs sont réparties sur la plage la plus large.

Variance dans Machine Learning est un type d'erreur qui se produit en raison de la sensibilité du modèle aux petites fluctuations de l'ensemble d'apprentissage donné.

25. Expliquez le Perceptron multicouche et la machine de Boltzmann ?

Un Perceptron Multicouche (MLP) est défini comme une classe de réseaux de neurones artificiels qui peuvent générer un ensemble de sorties à partir de l'ensemble d'entrées données. Un MLP se compose de plusieurs couches de nœuds d'entrée qui sont connectés sous forme de graphe orienté entre les couches d'entrée et de sortie.

Le but principal de la Machine Boltzmann est d'optimiser la solution à un problème donné. Il est principalement utilisé pour optimiser les poids et la quantité liés à ce problème spécifié.

Questions et réponses d'entrevue sur l'apprentissage automatique

26. Expliquez le terme biais ?

Le biais de données dans l'apprentissage automatique est défini comme un type d'erreur où certains éléments d'un ensemble de données donné sont pondérés plus fortement que d'autres. Un ensemble de données biaisé ne représentera pas avec précision le cas d'utilisation du modèle, et il en résulte de faibles niveaux de précision et des erreurs d'analyse.

27. Nommez les types d'apprentissage automatique ?

Les types d'apprentissage automatique sont répertoriés ci-dessous :

  1. Enseignement supervisé
  2. Apprentissage non supervisé
  3. Apprentissage par renforcement

28. Différencier classification et régression ?

Classification Régression
Il s'agit de prédire une étiquetteIl s'agit de prédire une quantité
Ici, les données sont étiquetées dans une ou plusieurs classes.Ici, vous devez prédire la quantité en continu.
Il peut prédire une valeur continue.Il peut prédire une valeur discrète.
Il peut être évalué en utilisant la précision.Il peut être évalué à l'aide de l'erreur quadratique moyenne.

29. Qu'est-ce qu'une matrice de confusion ?

Dans le domaine de l'apprentissage automatique, un matrice de confusion également appelée matrice d'erreurs, est définie comme une disposition de tableau spécifique qui permet à l'utilisateur de visualiser les performances d'un algorithme, principalement un apprentissage supervisé.

Matrice de confusion

30. Lorsque votre ensemble de données souffre d'une forte variance, comment le gérez-vous ?

Pour les ensembles de données à forte variance, nous pouvons utiliser l'algorithme de bagging. L'algorithme d'ensachage divise les données en différents sous-groupes avec un échantillonnage répliqué à partir de données aléatoires. Une fois les données divisées, à l'aide d'un algorithme d'apprentissage, les données aléatoires peuvent être utilisées pour créer des règles. Ensuite, nous utilisons la technique du sondage pour rassembler tous les résultats prédits du modèle.

Questions et réponses d'entrevue sur l'apprentissage automatique

31. Faire la différence entre l'apprentissage inductif et déductif ?

Apprentissage inductif Apprentissage déductif
Il vise à développer une théorie.Il vise à tester une théorie existante.
Il va des observations spécifiques aux grandes généralisationsS'il n'y a pas de théorie, vous ne pouvez pas mener de recherche déductive.
Il se compose de trois étapes,ObservationObserver un modèleDévelopper une théorieIl se compose de quatre étapes : Commencer par une théorie existante Formuler une hypothèse basée sur une théorie existante Recueillir des données pour tester l'hypothèse Analyser les résultats

32. Expliquez le traitement des valeurs corrompues dans l'ensemble de données donné ?

Ci-dessous sont les moyens de gérer les données manquantes ?

  1. Supprimez les lignes avec des valeurs manquantes.
  2. Créez un autre modèle prédictif afin de pouvoir prédire les valeurs manquantes.
  3. Utilisez un modèle de telle sorte qu'il puisse incorporer les données manquantes.
  4. Vous devez remplacer les données manquantes par les valeurs agrégées.
  5. Vous pouvez prédire les valeurs manquantes.
  6. créer une catégorie inconnue

33. Lequel parmi ceux-ci est le plus important Précision du modèle ou Performance du modèle ?

Précision du modèle est considérée comme la caractéristique importante d'un modèle Machine Language/AI. Chaque fois que nous discutons de la performance du modèle, nous clarifions d'abord s'il s'agit de la performance de notation du modèle ou de la performance d'entraînement du modèle.

Performances du modèle est amélioré en utilisant l'informatique distribuée et la parallélisation sur les actifs notés donnés, mais nous devons soigneusement construire la précision pendant le processus de formation du modèle.

34. Qu'est-ce qu'une série chronologique ?

La série temporelle dans l'apprentissage automatique est définie comme un ensemble de variables aléatoires ordonnées par rapport au temps. Les séries temporelles sont étudiées pour interpréter un phénomène, identifier les composantes d'une tendance, d'une cyclicité, et prédire ses valeurs futures.

35. Faire la différence entre l'entropie et le gain d'information ?

le Gain d'informations est défini comme la quantité d'informations obtenues sur un signal ou une variable aléatoire à partir de l'observation d'une autre variable aléatoire.

Entropie peut être défini comme le taux moyen auquel l'information est produite par la source stochastique de données, Ou il peut être défini comme une mesure de l'incertitude associée à une variable aléatoire.

36. Faire la différence entre la descente de gradient stochastique (SGD) et la descente de gradient (GD) ?

Descente de dégradé par lot est impliqué dans les calculs sur l'ensemble d'apprentissage complet de chaque étape, ce qui entraîne un processus très lent sur des données d'apprentissage très volumineuses. Par conséquent, il devient très coûteux de faire Batch GD. Cependant, il est idéal pour les variétés d'erreurs relativement lisses. De plus, il s'adapte bien au nombre de fonctionnalités.

Descente de gradient stochastique tente de résoudre le problème principal de la descente de gradient par lots, à savoir l'utilisation de données d'entraînement complètes pour calculer les gradients à chaque étape. SGD est de nature stochastique, ce qui signifie qu'il récupère des instances aléatoires de données d'entraînement à chaque étape, puis il calcule le gradient, ce qui le rend plus rapide car il y a très peu de données à manipuler en une seule fois,

Descente de dégradé par lot Descente de gradient stochastique
Il calcule le gradient en utilisant l'intégralité de l'échantillon d'apprentissage.Il calcule le gradient à l'aide d'un seul échantillon d'apprentissage.
Cela ne peut pas être suggéré pour d'énormes échantillons d'entraînement.Il peut être suggéré pour de grands échantillons d'apprentissage.
Il est de nature déterministe.Il est de nature sophistiquée.

37. Faire la différence entre l'impureté de Gini et l'entropie dans un arbre de décision ?

Gini Entropie
Il a des valeurs à l'intérieur de l'intervalle [0, 0,5]Il a des valeurs à l'intérieur de l'intervalle [0, 1]
C'est plus complexe.Ce n'est pas complexe.
Sa mesure est la probabilité qu'un échantillon aléatoire soit classé correctement.C'est une mesure pour calculer le manque d'information,

38 . Mentionnez certains des avantages et des inconvénients des arbres de décision ?

avantages et inconvénients des arbres de décision

Avantages de l'arbre de décision :

  1. Les arbres de décision nécessitent moins d'efforts pour la préparation des données lors du prétraitement par rapport à d'autres algorithmes.
  2. Un arbre de décision ne nécessite pas la normalisation des données.
  3. Il ne nécessite pas de mise à l'échelle des données.
  4. Les valeurs manquantes dans les données n'affectent pas le processus de construction d'un arbre de décision.
  5. Un modèle d'arbre de décision est très facile à expliquer aux équipes techniques et aux parties prenantes.
Voir également Top 100 des questions et réponses d'entrevue JavaScript

39. Pouvez-vous expliquer la technique d'apprentissage Ensemble dans Machine Learning ?

Les méthodes d'ensemble sont les techniques utilisées pour créer plusieurs modèles et les combiner pour produire des résultats améliorés. Les méthodes d'ensemble produisent généralement des solutions plus précises qu'un modèle unique.

Dans Apprentissage d'ensemble , nous divisons l'ensemble de données d'apprentissage en plusieurs sous-ensembles, où chaque sous-ensemble est ensuite utilisé pour créer un modèle distinct. Une fois les modèles entraînés, ils sont ensuite combinés pour prédire un résultat de telle manière qu'il y ait une réduction de la variance de la sortie.

Questions et réponses d'entrevue sur l'apprentissage automatique

40. Expliquez les termes Colinéarité et Multicolinéarité ?

Multicolinéarité se produit lorsque plusieurs variables indépendantes sont fortement corrélées entre elles dans un modèle de régression, ce qui signifie qu'une variable indépendante peut être prédite à partir d'une autre variable indépendante à l'intérieur d'un modèle de régression.

Colinéarité se produit principalement lorsque deux variables prédictives dans une régression multiple ont une certaine corrélation.

Colinéarité

41. Différencier les machines Random Forest et Gradient Boosting ?

Comme les forêts aléatoires, le gradient boosting est également un ensemble d'arbres de décision. Les deux principales différences sont :

    Comment les arbres sont construits :Chaque arbre de la forêt aléatoire est construit indépendamment, tandis que l'amplification de gradient ne construit qu'un seul arbre à la fois.Combiner les résultats: les forêts aléatoires combinent les résultats à la fin du processus en faisant la moyenne. Alors que le gradient boosting combine les résultats le long du chemin.

42. Expliquez les termes vecteurs propres et valeurs propres ?

Vecteurs propres sont des vecteurs unitaires, ce qui signifie que leur longueur ou amplitude est égale à 1,0. Ils sont appelés vecteurs droits, c'est-à-dire un vecteur colonne.

Valeurs propres sont des coefficients appliqués aux vecteurs propres qui, à leur tour, donnent aux vecteurs leur longueur ou leur amplitude.

Vecteurs propres et valeurs propres

43. Pouvez-vous expliquer Associative Rule Mining (ARM) ?

Extraction de règles d'association (ARM) vise à connaître les règles d'association qui satisferont le support minimum prédéfini et la confiance à partir d'une base de données. AMO est principalement utilisé pour réduire le nombre de règles d'association avec les nouvelles fonctions de fitness qui peuvent intégrer des règles fréquentes.

44. Qu'est-ce qu'un test A/B ?

Le test A/B est défini comme une expérience de contrôle aléatoire de base. Il est utilisé pour comparer deux versions d'une variable afin de déterminer laquelle d'entre elles est la plus performante dans un environnement contrôlé.

Les tests A/B peuvent être utilisés au mieux pour comparer deux modèles afin de vérifier lequel est le produit le mieux recommandé à un client.

45. Expliquez la marginalisation et son processus ?

La marginalisation est une méthode qui nécessite la somme des valeurs possibles d'une variable pour déterminer la contribution marginale d'une autre variable.

P(X=x) = ∑YP(X=x,Y)

Questions et réponses d'entrevue sur l'apprentissage automatique

46. ​​Qu'est-ce que l'échantillonnage en grappes ?

Regroupement

Échantillonnage en grappes est défini comme un type de méthode d'échantillonnage. Avec l'échantillonnage en grappes, les chercheurs divisent généralement la population en groupes ou ensembles distincts, appelés grappes. Ensuite, un échantillon aléatoire de grappes est prélevé dans la population. Ensuite, le chercheur effectue son analyse sur les données des grappes échantillonnées collectées.

47. Expliquez le terme Malédiction de la dimensionnalité ?

La malédiction de la dimensionnalité fait essentiellement référence à l'augmentation de l'erreur avec l'augmentation du nombre de caractéristiques. Cela peut se référer au fait que les algorithmes sont vigoureux à concevoir dans des dimensions élevées, et ils ont souvent un temps d'exécution exponentiel dans les dimensions.

48. Pouvez-vous nommer quelques bibliothèques en Python utilisées pour l'analyse de données et les calculs scientifiques ?

  1. NumPy
  2. SciPy
  3. pandas
  4. SciKit
  5. Matplotlib
  6. Né en mer
  7. Bokeh

49. Que sont les valeurs aberrantes ? Mentionner les méthodes pour traiter les valeurs aberrantes ?

Une valeur aberrante peut être définie comme un objet qui s'écarte considérablement des autres objets. Ils peuvent être causés par des erreurs d'exécution.

Les trois principales méthodes pour traiter les valeurs aberrantes sont les suivantes :

  1. Méthode univariée
  2. Méthode multivariée
  3. Erreur de Minkowski

50. Énumérez quelques courbes de distribution populaires ainsi que des scénarios où vous les utiliserez dans un algorithme ?

Les courbes de distribution les plus populaires sont :

Distribution uniforme peut être défini comme une distribution de probabilité qui a une probabilité constante. Exemple : Lancer un seul dé car il a plusieurs résultats.

La distribution binomiale est défini comme une probabilité avec deux résultats possibles seulement. Exemple : un tirage au sort. Le résultat sera soit pile soit pile.

Distribution normale spécifie comment les valeurs d'une variable sont distribuées. Exemple : La taille des élèves dans une salle de classe.

Poisson distribution aide à prédire la probabilité d'événements spécifiques qui se produisent lorsque vous savez à quelle fréquence cet événement s'est produit.

La distribution exponentielle concerne principalement la quantité de temps jusqu'à ce que l'événement spécifique se produise. Exemple : la durée de vie d'une batterie de voiture, en mois.

Questions et réponses d'entrevue sur l'apprentissage automatique

51. Pouvez-vous énumérer les hypothèses de données à respecter avant de commencer la régression linéaire ?

Les hypothèses à respecter sont :

  1. Relation linéaire
  2. Normalité multivariée
  3. Pas ou peu de multicolinéarité
  4. Pas d'auto-corrélation
  5. Homoscédasticité

52. Expliquez le terme Facteur d'inflation de la variance signifie ?

Le facteur d'inflation de variance qui est VIF est défini comme une mesure de la quantité de multicolinéarité dans un ensemble donné de variables de régression multiples.

Mathématiquement, le facteur d'inflation de variance pour une variable de modèle de régression est égal au rapport de la variance finale du modèle à la variance d'un modèle qui comprend cette seule variable indépendante.

Ce rapport est calculé pour chacune des variables indépendantes. Un VIF élevé signifie que la variable indépendante associée est extrêmement colinéaire avec les autres variables du modèle.

53. Pouvez-vous nous dire quand la ligne de régression linéaire arrête de tourner ou trouve un endroit optimal où elle est ajustée sur les données ?

L'endroit où la valeur RSquared la plus élevée est trouvée est l'endroit où la ligne s'immobilise. RSquared représente généralement la quantité de variance capturée par la ligne de régression linéaire virtuelle par rapport à la variance totale capturée par l'ensemble de données.

54. Pouvez-vous nous dire quel algorithme d'apprentissage automatique est connu sous le nom d'apprenant paresseux et pourquoi il est appelé ainsi ?

L'algorithme KNN Machine Learning est appelé un apprenant paresseux. K-NN est défini comme un apprenant paresseux car il n'apprendra aucune valeur ou variable apprise par machine à partir des données d'entraînement données, mais il calcule dynamiquement la distance chaque fois qu'il veut classer. Par conséquent, il mémorise l'ensemble de données d'entraînement à la place.

55. Pouvez-vous nous dire quel pourrait être le problème lorsque la valeur bêta d'une variable spécifique varie trop dans chaque sous-ensemble lorsque la régression est exécutée sur divers sous-ensembles de l'ensemble de données ?

Les variations des valeurs bêta dans chaque sous-ensemble suggèrent que l'ensemble de données est hétérogène. Pour surmonter ce problème, nous utilisons un modèle différent pour chacun des sous-ensembles groupés de l'ensemble de données donné, ou nous utilisons un modèle non paramétrique comme les arbres de décision.

56. Comment choisir un classificateur en fonction de la taille des données d'un ensemble d'apprentissage ?

Si l'ensemble d'apprentissage est de petite taille, avec des modèles à fort biais ou à faible variance, par exemple, Naive Bayes a tendance à mieux fonctionner car il est moins susceptible de sur-adapter.

Si l'ensemble d'apprentissage est de grande taille, les modèles à faible biais ou à forte variance, par exemple, la régression logistique, ont tendance à mieux fonctionner car ils peuvent refléter des relations plus complexes.

57. Différencier ensemble d'entraînement et ensemble de test dans un modèle d'apprentissage automatique ?

Ensemble d'entraînement Ensemble d'essai
70 % des données totales sont prises comme ensemble de données d'apprentissage.Les 30 % restants sont considérés comme un ensemble de données de test.
Il est mis en œuvre pour construire un modèle.Il sert à valider le modèle construit.
Il s'agit de données étiquetées utilisées pour former le modèle.Nous testons généralement sans données étiquetées, puis vérifions les résultats avec des étiquettes.

58. Expliquez un faux positif et un faux négatif et comment sont-ils significatifs ?

À faux positif est un concept où vous recevez un résultat positif pour un test donné alors que vous auriez dû recevoir un résultat négatif. Cela s'appelle aussi une fausse alarme ou une erreur de faux positif. Il est essentiellement utilisé dans le domaine médical, mais il peut également s'appliquer aux tests de logiciels.

Exemples de faux positifs :

  1. Un test de grossesse est positif, alors qu'en fait, vous n'êtes pas enceinte.
  2. Un test de dépistage du cancer est positif, mais vous n'avez pas la maladie.
  3. Les tests prénataux sont positifs pour le syndrome de Down lorsque votre fœtus ne présente aucun trouble.
  4. Un logiciel antivirus sur votre système identifie à tort un programme inoffensif comme étant malveillant.

À faux négatif est défini lorsqu'un résultat de test négatif est erroné. En termes simples, vous obtenez un résultat de test négatif, alors que vous auriez dû obtenir un résultat de test positif.

Par exemple, envisagez de faire un test de grossesse et votre test sera négatif (pas enceinte). Mais en fait, vous êtes enceinte.

Les faux résultats négatifs du test de grossesse dus à la prise du test trop tôt, à l'utilisation de l'urine diluée ou à la vérification des résultats très tôt. À peu près tous les tests médicaux comportent un risque de faux négatif.

59. Expliquez le terme Apprentissage automatique semi-supervisé ?

L'apprentissage semi-supervisé est défini comme une approche de l'apprentissage automatique qui combine une quantité moindre de données étiquetées avec une énorme quantité de données non étiquetées pendant le processus de formation. Il se situe entre l'apprentissage non supervisé et l'apprentissage supervisé.

60. Pouvez-vous nous parler des applications de l'apprentissage automatique supervisé dans les entreprises modernes ?

  1. Diagnostic de santé
  2. Détection de fraude
  3. Détection de courrier indésirable
  4. Analyse sentimentale

61. Pouvez-vous faire la différence entre l'apprentissage automatique inductif et l'apprentissage automatique déductif ?

Apprentissage automatique inductif Apprentissage automatique déductif
UNE ⋀ B ⊢ UNE → B (Induction)A ⋀ (A –>B)⊢ B(Déduction)
Il observe et apprend de l'ensemble des instances, puis il tire la conclusion.Il tire d'abord la conclusion, puis il y travaille en fonction de la décision précédente.
C'est un machine learning statistique comme KNN ou SVM,Algorithme d'apprentissage automatique au raisonnement déductif à l'aide de l'arbre de décision.

62. Qu'est-ce que la forêt aléatoire dans l'apprentissage automatique ?

La forêt aléatoire peut être définie comme un algorithme d'apprentissage supervisé utilisé pour les classifications et la régression. De même, l'algorithme de forêt aléatoire crée des arbres de décision sur les échantillons de données, puis il obtient la prédiction de chacun des échantillons et sélectionne finalement le meilleur par vote.

63. Expliquez le compromis entre biais et variance ?

Biais peut être défini comme les hypothèses faites par le modèle pour rendre la fonction cible facile à approximer.

Variance est défini comme le montant que l'estimation de la fonction cible changera compte tenu des différentes données d'apprentissage.

le troquer est défini comme la tension entre l'erreur introduite par le biais et la variance.

64. Expliquer l'élagage dans les arbres de décision et comment s'effectue-t-il ?

L'élagage est un processus de compression de données dans les algorithmes d'apprentissage automatique et de recherche qui peut réduire la taille des arbres de décision en supprimant certaines sections de l'arbre qui ne sont pas critiques et inutiles pour classer les instances. Un arbre trop grand risque de sur-adapter les données d'apprentissage et se généralise mal aux nouveaux échantillons.

La taille peut avoir lieu comme suit.

  1. Mode descendant (il parcourra les nœuds et coupera les sous-arbres en commençant à la racine)
  2. Mode ascendant (il commencera aux nœuds feuilles)

Nous avons réduit l'algorithme d'erreur pour l'élagage des arbres de décision.

65. Comment fonctionnent les algorithmes à erreur réduite pour l'élagage dans les arbres de décision ?

L'algorithme d'erreur réduite fonctionne comme suit :

  1. Il considère chaque nœud pour l'élagage.
  2. Élagage = supprimer le sous-arbre à ce nœud, puis en faire une feuille et attribuer la classe commune principale à ce nœud.
  3. Un nœud est supprimé de l'arbre si l'arbre résultant fonctionne moins bien que l'original.
  4. Les nœuds sont supprimés de manière itérative en choisissant le nœud de telle manière que dont la suppression augmente principalement la précision de l'arbre de décision sur le graphique.
  5. L'élagage se poursuit jusqu'à ce qu'un nouvel élagage soit nocif.
  6. Il utilise la formation, les ensembles de tests et les validations. C'est une approche efficace si une grande quantité de données est disponible.
Voir également Top 100 des questions et réponses d'entrevue JavaScript

66. Expliquez le terme Classification par arbre de décision ?

Un arbre de décision construit des modèles de classification sous forme d'arborescence, avec des ensembles de données divisés en sous-ensembles plus petits lors du développement de l'arbre de décision; fondamentalement, c'est une manière arborescente avec des branches et des nœuds définis. Les arbres de décision traitent à la fois des données catégorielles et numériques.

67. Expliquez la régression logistique ?

L'analyse de régression logistique est une technique utilisée pour examiner l'association de variables indépendantes avec une variable dépendante dichotomique. Cela contraste avec l'analyse de régression linéaire, où la variable dépendante est une variable continue.

Chaque fois que la sortie de la régression logistique est 0 ou 1 avec une valeur seuil de 0,5. Toute valeur supérieure à 0,5 est considérée comme 1 et tout point inférieur à 0,5 est considéré comme 0.

68. Nommez quelques méthodes de réduction de la dimensionnalité ?

Certaines des méthodes de réduction de la dimensionnalité sont données ci-dessous :

  1. En combinant les fonctionnalités avec l'ingénierie des fonctionnalités
  2. Suppression d'entités colinéaires
  3. en utilisant la réduction de dimensionnalité algorithmique.

69. Qu'est-ce qu'un système de recommandation ?

Les systèmes de recommandation collectent principalement les données client et analysent automatiquement ces données pour générer des recommandations personnalisées pour les clients. Ces systèmes reposent principalement sur des données implicites telles que l'historique de navigation et les achats récents et des données explicites telles que les évaluations fournies par le client.

questions d'apprentissage automatique - système de recommandation

70. Expliquez l'algorithme du plus proche voisin K ?

K-Nearest Neighbor est l'algorithme d'apprentissage automatique le plus simple basé sur la technique d'apprentissage supervisé. Il suppose la similitude entre le nouveau cas ou les nouvelles données et les cas disponibles, et il place le nouveau cas dans une catégorie similaire à celle des catégories disponibles.

Par exemple, nous avons une image d'une créature qui ressemble à celle d'un chat et d'un chien, mais nous voulons savoir s'il s'agit d'un chat ou d'un chien. Pour cette identification, nous pouvons utiliser l'algorithme KNN, car il fonctionne sur une base de similarité. Le modèle KNN trouvera les similitudes du nouvel ensemble de données avec celui des images de chats et de chiens, et cela est basé sur les caractéristiques similaires ; il le mettra dans une catégorie chat ou chien.

71. Considérant une longue liste donnée d'algorithmes d'apprentissage automatique, étant donné un ensemble de données, comment les filtres anti-spam de l'email seront alimentés par des centaines d'emails vous décidez lequel utiliser?

Le choix d'un algorithme dépend des questions mentionnées ci-dessous :

  1. Combien de données avez-vous, et est-ce continu ou catégorique ?
  2. Le problème est-il lié à la classification, au regroupement, à l'association ou à la régression ?
  3. S'agit-il d'une variable prédéfinie (étiquetée), non étiquetée ou d'un mélange des deux ?
  4. Quel est l'objectif principal ?

Sur la base des questions ci-dessus, il faut choisir le bon algorithme qui répond à ses besoins.

72. Pouvez-vous nous expliquer comment concevoir un filtre anti-spam pour les e-mails ?

  1. Le filtre anti-spam de l'e-mail sera alimenté par des centaines d'e-mails.
  2. Chacun de ces e-mails porte une étiquette : 'spam' ou 'pas de spam'.
  3. L'algorithme d'apprentissage automatique supervisé identifiera ensuite le type d'e-mails marqués comme spam en fonction de mots clés tels que la loterie, pas d'argent, remboursement intégral, etc.
  4. La prochaine fois qu'un e-mail arrivera dans la boîte de réception, le filtre anti-spam utilisera une analyse statistique et des algorithmes tels que les arbres de décision et SVM pour identifier la probabilité que l'e-mail soit un spam.
  5. Si la probabilité est élevée, il sera étiqueté comme spam et l'e-mail n'atteindra pas votre boîte de réception.
  6. Sur la base de la précision de chacun des modèles, nous utilisons l'algorithme avec la plus grande fiabilité après avoir testé tous les modèles donnés.

73. Comment pouvez-vous éviter le surajustement ?

Le surajustement est évité en suivant les étapes :

    Validation croisée: L'idée ici est d'utiliser les données de formation initiales pour générer divers déversements de test de petits trains. Où ces déversements de test sont utilisés pour régler le modèle.Entraînez-vous avec plus de données: L'entraînement avec beaucoup de données peut aider les algorithmes à mieux détecter les signaux.Supprimer la fonctionnalité: Vous pouvez supprimer manuellement certaines fonctionnalités.Arrêt anticipé :Cela fait référence à l'arrêt du processus de formation avant que l'apprenant n'atteigne le point spécifié.Régularisation: Il fait référence à un large éventail de techniques pour forcer artificiellement le modèle à être simple.Ensembling: Il s'agit d'algorithmes d'apprentissage automatique qui combinent les prédictions de plusieurs modèles distincts.

74. Expliquez le terme Biais de sélection dans l'apprentissage automatique ?

Un biais de sélection se produit si les exemples d'un ensemble de données sont choisis de telle manière qu'ils ne reflètent pas leur distribution dans le monde réel. Le biais de sélection peut prendre de nombreuses formes différentes.

    Biais de couverture: Les données ici ne sont pas sélectionnées de manière représentative.

Exemple : Un modèle est entraîné de manière à prédire les ventes futures d'un nouveau produit sur la base des enquêtes téléphoniques menées auprès de l'échantillon de clients ayant acheté le produit. Les consommateurs qui ont plutôt opté pour l'achat d'un produit concurrent n'ont pas été interrogés et, par conséquent, cet ensemble de personnes n'a pas été représenté dans les données de formation.

    Biais de non-réponse: Les données ici finissent par être non représentatives en raison des écarts de participation dans la collecte des processus de données.

Exemple : Un modèle est formé de manière à prédire les ventes futures d'un nouveau produit sur la base des enquêtes téléphoniques menées auprès d'un échantillon de clients ayant acheté le produit et d'un échantillon de clients ayant acheté le produit concurrent. Les clients ayant acheté le produit concurrent étaient 80 % plus susceptibles de refuser de répondre à l'enquête, et leurs données étaient sous-représentées dans l'échantillon.

    Biais d'échantillonnage:Ici , une randomisation appropriée n'est pas utilisée pendant le processus de collecte des données.

Exemple : un modèle formé pour prédire les ventes futures d'un nouveau produit sur la base d'enquêtes téléphoniques menées auprès d'un échantillon de clients ayant acheté le produit et d'un échantillon de clients ayant acheté un produit concurrent. Au lieu de cibler les clients au hasard, l'enquêteur a choisi les 200 premiers consommateurs qui ont répondu à leur e-mail, qui auraient pu être plus enthousiastes à propos du produit que les acheteurs moyens.

75. Expliquez les types d'apprentissage supervisé ?

L'apprentissage supervisé est de deux types, à savoir,

    Régression:Ce est une sorte d'apprentissage supervisé qui apprend à partir des ensembles de données étiquetés donnés, puis il est capable de prédire la sortie à valeur continue pour les nouvelles données qui sont données à l'algorithme. Il est utilisé dans les cas où une exigence de sortie est un nombre comme l'argent ou la taille, etc. Certains algorithmes d'apprentissage supervisé populaires sont la régression linéaire, la régression logistique.
    Classification:C'est une sorte d'apprentissage où l'algorithme doit être mappé sur les nouvelles données obtenues à partir de l'une des deux classes que nous avons dans l'ensemble de données. Les classes doivent être mappées sur 1 ou 0, ce qui dans la vie réelle se traduit par 'Oui' ou 'Non'. La sortie devra être l'une des classes, et ce ne devrait pas être un nombre comme c'était le cas dans le cas de la régression. Certains des algorithmes les plus connus sont les arbres de décision, le classificateur Naive Bayes, les algorithmes vectoriels de support.

76. Quelle descente de gradient de fuite?

Dans Machine Learning, nous rencontrons le problème du gradient de disparition lors de la formation des réseaux de neurones avec des méthodes basées sur le gradient comme la rétro-propagation. Ce problème rend difficile le réglage et l'apprentissage des paramètres des couches précédentes dans le réseau donné.

Le problème des gradients de fuite peut être considéré comme un exemple du comportement instable que nous pouvons rencontrer lors de la formation du réseau neuronal profond.

Il décrit une situation dans laquelle le réseau de rétroaction multicouche profond ou le réseau neuronal récurrent n'est pas en mesure de propager les informations de gradient utiles de l'extrémité de sortie donnée du modèle vers les couches proches de l'extrémité d'entrée du modèle.

77. Pouvez-vous nommer les méthodes proposées pour résoudre le problème du gradient de fuite ?

Les méthodes proposées pour surmonter les problèmes de gradient de fuite sont :

  1. Hiérarchie à plusieurs niveaux
  2. La mémoire longue à court terme
  3. Matériel plus rapide
  4. Réseaux de neurones résiduels (ResNets)
  5. continuer

78. Faites la différence entre Exploration de données et apprentissage automatique ?

Exploration de données Apprentissage automatique
Il extrait des informations utiles à partir d'une grande quantité de données.Il introduit des algorithmes à partir de données ainsi que de l'expérience passée.
Il est utilisé pour comprendre le flux de données.Il apprend aux ordinateurs à apprendre et à comprendre à partir du flux de données.
Il a d'énormes bases de données avec des données non structurées.Il a des données existantes ainsi que des algorithmes.
Cela nécessite une intervention humaine.Pas besoin de l'effort humain requis après la conception
Les modèles sont développés à l'aide de la technique d'exploration de donnéesl'algorithme d'apprentissage automatique peut être utilisé dans l'arbre de décision, les réseaux de neurones et certaines autres parties de l'intelligence artificielle
Il s'agit plutôt de recherche utilisant des méthodes comme l'apprentissage automatique.Il est autodidacte et entraîne le système à effectuer des tâches intelligentes.

79. Nommez les différentes techniques algorithmiques en Machine Learning ?

Les différentes techniques algorithmiques en apprentissage automatique sont listées ci-dessous :

  1. Apprentissage non supervisé
  2. Apprentissage semi-supervisé
  3. Transduction
  4. Apprentissage par renforcement
  5. Apprendre à apprendre
  6. Enseignement supervisé

80. Expliquez la fonction de « Apprentissage non supervisé ?

  1. Il doit trouver des grappes de données.
  2. Trouver les représentations de faible dimension des données
  3. Pour trouver des directions intéressantes dans les données
  4. Pour calculer des coordonnées et des corrélations intéressantes.
  5. Trouvez de nouvelles observations ou nettoyez la base de données.

81. Expliquez le terme classificateur dans Machine Learning ?

Un classificateur dans l'apprentissage automatique est défini comme un algorithme qui catégorise automatiquement les données dans un ou plusieurs groupes de classes. L'un des exemples courants est un classificateur d'e-mails qui peut analyser les e-mails pour les filtrer selon les étiquettes de classe données : Spam ou Not Spam.

Nous avons cinq types d'algorithmes de classification, à savoir,

  1. Arbre de décision
  2. Classificateur naïf de Bayes
  3. K-Voisins les plus proches
  4. Soutenir les machines vectorielles
  5. Réseaux de neurones artificiels

82. Qu'est-ce que la génétique algorithmes ?

Les algorithmes génétiques sont définis comme des algorithmes de recherche stochastiques qui peuvent agir sur une population de solutions possibles. Les algorithmes génétiques sont principalement utilisés en intelligence artificielle pour rechercher un espace de solutions potentielles afin d'en trouver une qui puisse résoudre le problème.

83. Pouvez-vous nommer le domaine où la reconnaissance de formes peut être utilisée ?

  1. Reconnaissance de la parole
  2. Statistiques
  3. Récupération informelle
  4. Bioinformatique
  5. Exploration de données
  6. Vision par ordinateur

84. Expliquez le terme Perceptron dans Machine Learning ?

Un Perceptron est défini comme un algorithme d'apprentissage supervisé de classificateurs binaires. Cet algorithme permet aux neurones d'apprendre et de traiter les éléments de l'ensemble d'apprentissage donné un par un. Il existe deux types de Perceptrons, à savoir.

  1. Une seule couche
  2. Multicouche.

85. Qu'est-ce que Régression isotonique ?

La régression isotonique est utilisée de manière itérative pour ajuster les distances idéales afin de protéger l'ordre de dissemblance relative. La régression isotonique est également utilisée dans la classification probabiliste pour équilibrer les probabilités prédites des modèles d'apprentissage automatique supervisés.

86. Que sont les réseaux bayésiens ?

Un réseau bayésien peut être défini comme un modèle graphique probabiliste qui présente un ensemble de variables et leurs dépendances conditionnelles à travers un DAG (graphe acyclique dirigé).

Par exemple, un réseau bayésien représenterait les relations probabilistes entre les maladies et leurs symptômes. Compte tenu des symptômes spécifiques, le réseau peut être utilisé pour calculer les possibilités de présence de différentes maladies.

87. Pouvez-vous expliquer les deux composantes du programme de logique bayésienne ?

Le programme de logique bayésienne comprend principalement deux composants.

  1. Le premier composant est le composant logique : il comprend un ensemble de clauses bayésiennes qui capturent la structure qualitative du domaine.
  2. Le deuxième composant est quantitatif : il encode les informations quantitatives sur le domaine.

88. Qu'est-ce qu'un algorithme d'apprentissage incrémental dans un ensemble ?

La méthode d'apprentissage incrémental est définie comme la capacité d'un algorithme à apprendre à partir de nouvelles données disponibles après que le classificateur a déjà été généré à partir de l'ensemble de données déjà disponible.

89. Nommer les composantes des techniques d'évaluation relationnelle ?

Les composantes de la technique d'évaluation relationnelle sont énumérées ci-dessous :

  1. L'acquisition des données
  2. Acquisition de vérité au sol
  3. Technique de validation croisée
  4. Type de requête
  5. Métrique de notation
  6. Test de signification

90. Pouvez-vous expliquer le décomposition biais-variance de l'erreur de classification dans la méthode d'ensemble ?

L'erreur attendue de l'algorithme d'apprentissage peut être divisée en biais et variance. Un terme de biais est une mesure de la proximité entre le classifieur moyen produit par l'algorithme d'apprentissage et la fonction cible. Le terme de variance est une mesure de la fluctuation de la prédiction de l'algorithme d'apprentissage pour divers ensembles d'apprentissage.

91. Nommez les différentes méthodes d'apprentissage séquentiel supervisé ?

Les différentes méthodes d'apprentissage supervisé séquentiel sont présentées ci-dessous :

  1. Fenêtres coulissantes récurrentes
  2. Modèles de Markow cachés
  3. Modèles de Markow à entropie maximale
  4. Champs aléatoires conditionnels
  5. Réseaux de transformateurs de graphes
  6. Méthodes de fenêtres coulissantes

92. Qu'est-ce que l'apprentissage statistique par lots ?

Un ensemble de données d'apprentissage est divisé en un ou plusieurs lots. Lorsque tous les échantillons d'apprentissage sont utilisés dans la création d'un lot, cet algorithme d'apprentissage est appelé descente de gradient de lot. Lorsque le lot donné a la taille d'un échantillon, l'algorithme d'apprentissage est appelé descente de gradient stochastique.

93. Pouvez-vous nommer les domaines de la robotique et du traitement de l'information où se pose le problème de la prédiction séquentielle ?

Les domaines de la robotique et du traitement de l'information où se pose le problème de la prédiction séquentielle sont indiqués ci-dessous

  1. Prédiction structurée
  2. Apprentissage par renforcement basé sur un modèle
  3. Apprentissage par imitation

94. Nommez les différentes catégories que vous pouvez catégoriser le processus d'apprentissage de la séquence ?

Les différentes catégories dans lesquelles vous pouvez catégoriser le processus d'apprentissage de la séquence sont répertoriées ci-dessous :

  1. Génération de séquence
  2. Reconnaissance de séquence
  3. Décision séquentielle
  4. Prédiction de séquence

95. Qu'est-ce que la prédiction de séquence ?

La prédiction de séquence vise à prédire des éléments de la séquence sur la base des éléments précédents.

Un modèle de prédiction est entraîné avec l'ensemble de séquences d'entraînement. Lors de l'entraînement, le modèle est utilisé pour effectuer des prédictions de séquence. Une prédiction consiste à prédire les éléments suivants d'une séquence. Cette tâche comporte un certain nombre d'applications telles que la prélecture de pages Web, les prévisions météorologiques, la recommandation de produits de consommation et les prévisions boursières.

Voici des exemples de problèmes de prédiction de séquence :

    Prévision météo. Compte tenu d'une séquence d'observations sur le temps particulier sur une période de temps, il prédit le temps prévu pour demain.Prédiction du marché boursier. Compte tenu d'une séquence de mouvements du titre sur une période de temps, il prédit le prochain mouvement du titre.Recommandation de produit. Étant donné une séquence des derniers achats d'un client, il prédit le prochain achat d'un client.

96. Expliquer l'apprentissage PAC ?

Probablement approximativement correct, c'est-à-dire que l'apprentissage PAC est défini comme un cadre théorique utilisé pour analyser l'erreur de généralisation de l'algorithme d'apprentissage en termes d'erreur sur un ensemble d'apprentissage donné et certaines mesures de la complexité. L'objectif principal ici est de montrer typiquement qu'un algorithme peut atteindre une faible erreur de généralisation avec une probabilité élevée.

97. Que sont PCA, KPCA et ICA, et à quoi servent-ils ?

Analyse en composantes principales (ACP) : Il transforme linéairement les entrées d'origine en nouvelles caractéristiques non corrélées.

Analyse en composantes principales basée sur le noyau (KCPA) : Il s'agit d'une ACP non linéaire développée en utilisant la méthode du noyau.

Analyse en composantes indépendantes (ICA) : Dans ICA, les entrées d'origine sont transformées linéairement en certaines caractéristiques statistiquement indépendantes les unes des autres.

98. Expliquer les trois étapes de construction d'un modèle en Machine Learning ?

Les trois étapes sont :

  1. Modélisme
  2. Test de modèle
  3. Application du modèle

99. Expliquez le terme hypothèse en ML ?

L'apprentissage automatique, en particulier l'apprentissage supervisé, peut être défini comme le désir d'utiliser les données disponibles pour apprendre une fonction qui mappe au mieux les entrées aux sorties.

Techniquement, ce problème est appelé approximation de fonction, où nous approchons une fonction cible inconnue que nous supposons telle qu'elle existe et qui peut mieux mapper les entrées données aux sorties sur toutes les considérations possibles du domaine du problème.

Un exemple du modèle qui se rapproche de la fonction cible et effectue les mappages des entrées aux sorties est connu sous le nom d'hypothèse dans l'apprentissage automatique.

Le choix de l'algorithme et la configuration de l'algorithme définissent l'espace des hypothèses possibles que peut constituer le modèle.

100. Expliquez les termes Eepoch, Eentropy, Bbias et Vvariance dans l'apprentissage automatique ?

Époque est un terme largement utilisé dans l'apprentissage automatique qui indique le nombre de passages de l'ensemble de données d'apprentissage que l'algorithme d'apprentissage automatique a terminés. Si la taille du lot correspond à l'intégralité de l'ensemble de données d'apprentissage, le nombre d'époques est défini comme le nombre d'itérations.

Entropie L'apprentissage automatique peut être défini comme la mesure du désordre ou de l'incertitude. L'objectif principal des modèles d'apprentissage automatique et des scientifiques des données, en général, est de réduire l'incertitude.

Données biais est un type d'erreur dans lequel certains éléments d'un ensemble de données sont plus fortement pondérés que d'autres.

Variance est défini comme le montant que l'estimation de la fonction cible changera si un ensemble de données d'apprentissage différent a été utilisé. La fonction cible est généralement estimée à partir des données d'apprentissage par l'algorithme d'apprentissage automatique.

Bonne chance avec votre entretien d'apprentissage automatique. Nous espérons que nos questions et réponses d'entrevue sur l'apprentissage automatique vous ont été utiles. Vous pouvez également consulter notre Questions et réponses d'entrevue sur la cybersécurité qui pourraient vous être utiles.