Prévision de la fiabilité des machines par la méthode des expertises. Prédiction de fiabilité

Un événement aléatoire entraînant la perte totale ou partielle des fonctionnalités d'un produit est appelé panne.

Les pannes, basées sur la nature des changements dans les paramètres de l'équipement avant leur apparition, sont divisées en progressives et soudaines (catastrophiques). Graduel les échecs sont caractérisés par un changement temporaire assez doux d'un ou plusieurs paramètres, soudain– leur changement brutal. En fonction de la fréquence d'apparition, les pannes peuvent être ponctuelles (pannes) ou intermittentes.

Accident– une panne ponctuelle d’auto-correction, intermittent L’échec est un échec de même nature qui se produit plusieurs fois.

Selon la cause de leur apparition, les pannes sont divisées en pannes stables et autocorrectives. Une panne persistante est éliminée en remplaçant le composant défaillant, tandis qu'une panne auto-résolvante disparaît d'elle-même, mais peut se reproduire. Une défaillance auto-corrective peut apparaître sous la forme d'un crash ou d'une défaillance intermittente.

Les pannes se produisent à la fois en raison des propriétés internes de l'équipement et d'influences externes et sont de nature aléatoire. Pour quantifier les échecs, des méthodes probabilistes de la théorie des processus aléatoires sont utilisées.

Fiabilité– la propriété d'un objet de maintenir continuellement un état opérationnel pendant un certain temps. La capacité d'un produit à maintenir en permanence les fonctions spécifiées pendant la durée spécifiée dans la documentation technique est caractérisée par la probabilité de fonctionnement sans panne, le taux de panne et le temps moyen entre les pannes. Le fonctionnement sans panne d'un produit (par exemple, une cellule) est quant à lui déterminé par les taux de défaillance des composants λi inclus dans sa composition.

La théorie de l'évaluation de la fiabilité nous permet méthodologiquement de voir et de « justifier » des modèles spécifiques existants pour évaluer la fiabilité, en particulier des composants, et également de prévoir leur degré d'exhaustivité, de suffisance et d'adéquation pour résoudre des problèmes pratiques de fiabilité.

Les chercheurs sur les défaillances de composants ont utilisé le principe de causalité et appliqué les connaissances de la physique, de la chimie, de la thermodynamique et de la science des matériaux pour expliquer les processus de dégradation qui conduisent à la défaillance. En conséquence, des termes et des concepts synthétiques sont apparus - «mécanisme de défaillance», «énergie d'activation du processus de dégradation», qui constituent la base des méthodes physiques d'analyse (physique de la fiabilité, physique du vieillissement, physique des défaillances), qui constituent la base de la développement de modèles d'évaluation d'indicateurs de fiabilité afin de prédire la fiabilité des composants. De tels modèles sont largement utilisés dans les travaux pratiques d'analyse et d'évaluation de la fiabilité des produits, y compris les composants MEA, et sont présentés dans les normes et catalogues officiels de microcircuits, qui constituent le principal type de produits de base d'éléments d'objets techniques modernes. Par conséquent, la connaissance de ces modèles est utile pour une application technique appropriée.

Pour donner une idée de la nature des processus de dégradation dans les produits, nous montrons d'abord comment les concepts d'équilibre chimique, de mécanique statistique et la théorie des vitesses de réaction absolues peuvent être appliqués à un système constitué de nombreuses particules. Cela nous permettra en outre d'introduire à la fois le modèle empirique d'Arrhenius pour estimer les taux de réaction et le modèle plus général d'Eyring.

Sous mécanismes de défaillance comprend les processus de changement microscopiques menant à l’échec du produit. Le mécanisme de défaillance est un modèle théorique conçu pour expliquer les manifestations externes de la défaillance d'un produit aux niveaux atomique et moléculaire. Ces manifestations externes sont déterminées par le type de défaillance et représentent des états spécifiques et physiquement mesurables du produit.

Le modèle du mécanisme de défaillance est généralement très idéalisé. Il prédit cependant des interdépendances qui conduisent à une meilleure compréhension du phénomène considéré, même si les résultats quantitatifs dépendent des composants spécifiques, de la composition et de la configuration du produit.

Les mécanismes de défaillance peuvent être de nature physique et/ou chimique. En pratique, il est difficile de séparer les mécanismes de défaillance. Par conséquent, au cours du processus d’analyse, une série complexe de mécanismes est souvent considérée comme un seul mécanisme de défaillance généralisée. En règle générale, un mécanisme parmi un certain nombre de mécanismes agissant simultanément, qui détermine le taux du processus de dégradation et qui se développe lui-même le plus rapidement, est particulièrement intéressant.

Les mécanismes de défaillance peuvent être représentés soit par des fonctions continues du temps, qui caractérisent généralement les processus de vieillissement et d'usure, soit par des fonctions discontinues, reflétant la présence de nombreux défauts ou faiblesses qualitatives non détectés.

Le premier groupe de mécanismes est provoqué par des défauts subtils qui entraînent une dérive des paramètres des composants au-delà des tolérances et est typique de la plupart des composants ; le deuxième groupe de mécanismes se manifeste dans un petit nombre de composants et est provoqué par des défauts grossiers, qui sont éliminés grâce à des tests de rejet technologique (TRT).

Même le composant le plus simple d'un produit (y compris IMNE) est un système hétérogène à plusieurs composants, multiphasé, ayant des zones limites entre les phases. Pour décrire un tel système, une approche soit phénoménologique, soit cinétique moléculaire est utilisée.

Approche phénoménologique– purement empirique, décrivant l’état du système à partir de paramètres macroscopiques mesurables. Par exemple, pour un transistor, sur la base des résultats de la mesure de la dérive temporelle du courant de fuite et de la tension de claquage à certains moments, la relation entre ces paramètres est établie, sur la base de laquelle les propriétés et les états du transistor tels que un système est prédit. Cependant, ces paramètres sont moyennés sur de nombreuses caractéristiques microscopiques, ce qui réduit leur sensibilité en tant qu'indicateurs des mécanismes de dégradation.

Approche cinétique moléculaire relie principalement les propriétés macroscopiques d’un système à une description de sa structure moléculaire. Dans un système composé de nombreuses particules (atomes et molécules), leurs mouvements peuvent être décrits sur la base des lois de la mécanique classique et quantique. Cependant, en raison de la nécessité de prendre en compte un grand nombre de particules en interaction, le problème est très volumineux et difficile à résoudre. L’approche cinétique moléculaire reste donc également purement empirique.

L'intérêt pour la cinétique de dégradation des composants conduit à analyser la manière dont se produisent les transformations (transitions) d'un état d'équilibre à un autre, en tenant compte de la nature et du rythme des transformations. Une telle analyse présente certaines difficultés.

Le fonctionnement des composants dépend principalement de phénomènes irréversibles tels que la conductivité électrique et thermique, c'est-à-dire est déterminé par des processus hors équilibre, pour étudier la dépendance dont il est nécessaire de recourir à des méthodes d'approximation, car les composants sont des systèmes à plusieurs composants constitués d'un certain nombre de phases de la matière. La présence de nombreux facteurs hors équilibre peut, dans certaines conditions, influencer la nature et le taux de changement des états d’équilibre du système. Par conséquent, il est nécessaire de prendre en compte non seulement les combinaisons de mécanismes qui peuvent changer en fonction du temps et de la charge, mais également les changements temporels des mécanismes eux-mêmes.

Malgré ces difficultés, il est possible de formuler un concept général de réflexion et d'analyse, basé sur le fait que dans la technologie des composants, sur la base du suivi de leurs paramètres et des résultats d'une certaine période de tests, il est d'usage de décider lequel d'un un ensemble donné de composants convient à une application particulière. Le processus de rejet s'effectue tout au long du cycle de production : des matériaux jusqu'aux tests des produits finis.

Il ne reste donc plus qu’à comprendre le mécanisme d’évolution du composant fini de l’état « bon » à l’état « rejet ». L'expérience montre qu'une telle transformation nécessite de surmonter une certaine barrière énergétique, schématisée sur la Fig. 5.13.

Riz. 5.13.

R. 1, r, r 2 niveaux d'énergie caractérisant les états normal, activé et de défaillance du système ; E a – énergie d'activation ; δ – espace d'instabilité du système ; A, B, C– particules en interaction du système

Le niveau d'énergie minimum requis pour passer d'un état p 1 en état R, appelé énergie d'activation E un processus qui peut être de nature mécanique, thermique, chimique, électrique, magnétique ou autre. Dans les produits semi-conducteurs à l’état solide, il s’agit souvent d’énergie thermique.

Si l'état R. 1 est le niveau d'énergie minimum possible de ce système, et le composant correspond à l'état « go », puis l'état R. correspond à un équilibre instable du système, et le composant correspond à un état de pré-défaillance ; R. 2 correspond à l'état « panne » du composant.

Considérons le cas où il existe un seul mécanisme de défaillance. L’état d’un système (bon ou mauvais) peut être caractérisé par un certain nombre de paramètres macroscopiques mesurables. L'évolution, ou dérive, de ces paramètres peut être enregistrée en fonction du temps et de la charge. Cependant, il faut s'assurer que le groupe de macroparamètres adopté ne reflète pas un cas particulier du microétat du système (bon ou mauvais). Le signe d'un cas particulier est l'absence de deux produits identiques du point de vue de leur microétat. Le rythme de dégradation ne sera alors pas le même pour eux, et les mécanismes eux-mêmes pourront s'avérer différents à un moment donné, ce qui signifie que les tests de rejet technologique (TRT) seront inefficaces. Si les microétats des composants sont identiques, les statistiques de défaillance après test seront identiques.

Considérons analyse des processus de dégradation. Dans un système simple constitué de nombreuses particules, considérons un certain nombre limité de particules participant activement au processus de dégradation conduisant à la dégradation des paramètres des composants. Dans de nombreux cas, le degré de dégradation est proportionnel au nombre de particules activées.

Par exemple, une dissociation de molécules en leurs atomes ou ions constitutifs peut se produire. La vitesse de ce processus (dissociation chimique) dépendra du nombre de particules dissociées et de leur vitesse moyenne de passage à travers la barrière énergétique.

Supposons que nous ayons un paramètre mesurable P. Propriétés du produit ou une fonction du paramètre F(P) change proportionnellement au taux de dissociation chimique de certaines substances qui composent les matériaux du produit, et la dissociation elle-même est le principal mécanisme de dégradation conduisant à la défaillance du produit. Dans ce cas, le taux de changement P ou F(P) dans le temps t peut s'exprimer ainsi :

N un le nombre de particules qui ont atteint un niveau d'énergie suffisant pour franchir la barrière énergétique ; – la vitesse moyenne de déplacement des particules activées à travers la barrière ; – le coefficient de transparence de la barrière (il est inférieur à l'unité, car certaines des particules actives) reculer du haut énergétique de la barrière).

Tâche de définition N a du nombre total de particules dans le système peut être résolu sous les hypothèses suivantes :

  • 1) seule une petite partie de toutes les particules du système possède toujours l'énergie nécessaire pour activer le processus de dégradation ;
  • 2) il existe un équilibre entre le nombre de particules activées et le nombre de particules restantes dans le système, c'est-à-dire le taux d'émergence (naissance) des particules activées est égal au taux de leur disparition (mort) :

Les problèmes du type considéré font l'objet d'études en mécanique statistique et sont associés aux statistiques de Maxwell - Boltzmann, Fermi - Dirac, Bose - Einstein.

Si vous postulez statistiques classiques de MaxwellBoltzmann, utilisé comme approximation satisfaisante pour les particules de tous types (toutes les particules peuvent être distinguées), alors le nombre de particules qui seront au même niveau d'énergie dans un système d'équilibre de plusieurs particules est décrit comme suit :

E un énergie d'activation; k– constante de Boltzmann ; T- température absolue.

Au cours de nombreuses années de recherche sur la cinétique des réactions, il a été établi empiriquement que dans la plupart des réactions chimiques et dans certains processus physiques, la vitesse de réaction dépend de la même manière de la température et des pertes.

(diminution) de la concentration initiale de la substance AVEC, ceux.

En d’autres termes, l’équation d’Arrhenius est valable pour les réactions chimiques activées thermiquement. Écrivons-le en tenant compte des corrections de la mécanique quantique :

UN - facteur de proportionnalité.

La plupart des tests accélérés de composants reposent sur l'utilisation de l'équation d'Arrhenius, qui est largement utilisée, même si elle n'offre souvent pas la précision nécessaire, pour analyser les processus de dégradation des produits et prédire leur fiabilité.

En ce qui concerne les produits électroniques, sa première utilisation a été dans l'étude des défauts d'isolation électrique.

Facteur UN doit être calculé en tenant compte :

  • vitesse moyenne des particules franchissant la barrière énergétique ;
  • le nombre total de particules présentes (participant au processus) ;
  • fonctions de distribution d’énergie des particules dans le système.

F* Et F n – fonctions de distribution des particules activées et normales ; δ – longueur du trajet de réaction ; AVEC n – concentration de particules normales.

Compte tenu des énergies de translation, de rotation et de vibration des particules, la dernière expression s'écrit sous une forme adaptée à une utilisation en physique des défaillances :

Où ; k- constante de Boltzmann ; h – constante

Planche; T- température; – énergie d'activation, énergie d'activation standard de Gibbs, entropie et enthalpie d'activation, constante universelle des gaz, respectivement.

L'importance de réduire l'entropie dans un système constitué de nombreuses particules réside dans le ralentissement du taux de dégradation du paramètre produit en raison de l'ordre croissant du système. Cela signifie une augmentation du MTBF, qui peut être démontrée en intégrant les dernières équations :

Expression du temps nécessaire à un composant pour atteindre un état de défaillance t f de la valeur nominale admissible du paramètre électrique P0 à la valeur de défaillance Pf après intégration, la substitution des limites et du logarithme prendra la forme

Où ; coefficient UN" est déterminé lors des tests de fiabilité et reflète l’état de pré-défaillance (c’est-à-dire activé énergétiquement) du composant.

Si sous le temps t f pour comprendre le temps moyen entre les défaillances, alors pour la loi de distribution exponentielle, le taux de défaillance λ peut être déterminé comme suit :

L'approche considérée nous permet de tirer uniquement des conclusions qualitatives et semi-quantitatives lors de l'analyse théorique de la fiabilité des composants, à la fois en raison de la multiphase et de l'hétérogénéité du supersystème multicomposant, dont le composant (et même un élément du composant) fait partie , et en raison du type de modèles expérimentaux temporaires de dégradation des composants. Cela ressort clairement du résumé des causes, des mécanismes et des modèles physiques et mathématiques des défaillances des composants du SI présentés dans le tableau. 5.20 (les modèles temporels ne suivent pas toujours une relation logarithmique ; en pratique, il peut y avoir des relations puissance-loi).

L'avantage de l'approche basée sur l'utilisation de l'équation d'Arrhenius est la capacité de prédire les défaillances paramétriques des produits sur la base de tests accélérés. L’inconvénient de cette approche est le manque de prise en compte des paramètres de conception et technologiques des éléments et composants.

Ainsi, l'approche d'Arrhenius repose sur la connexion empirique entre le paramètre électrique d'un composant ou d'un élément et le mécanisme de défaillance avec l'énergie d'activation Ea. Cet inconvénient a été surmonté par la théorie de G. Eyring, qui a introduit le concept de complexe activé de particules et a trouvé sa justification en utilisant les méthodes de la mécanique statistique et quantique. Cependant, sa théorie ne prend pas en compte les réalisations de l'école thermodynamique russe des scientifiques des matériaux, qui ont retravaillé de manière créative les idées de D. Gibbs.

Néanmoins Approche Arrhenius-EyringGibbs est activement utilisé pour résoudre les problèmes de fiabilité dans l'hypothèse d'une dépendance à la température des mécanismes de défaillance et constitue la base de divers modèles utilisés pour trouver les taux de défaillance des équipements électriques donnés dans la littérature de référence, les manuels et les bases de données de programmes de calcul d'indicateurs de fiabilité.

La théorie d'Eyring ne prend pas en compte les réalisations de l'école thermodynamique russe des scientifiques des matériaux, qui ont maîtrisé et retravaillé de manière créative les idées de D. Gibbs, qui n'est pas très vénéré en Amérique, mais aimé en Russie et dans les vastes étendues de l'ancien. URSS. On sait, par exemple, que V.K. Semenchenko, basé sur des fonctions généralisées associées aux équations de Pfaff (1815 - la forme dite pfaffienne), a proposé son approche (son modèle C) et modifié l'équation fondamentale de D. Gibbs.

Tableau 5.20

Causes, mécanismes caractéristiques et modèles de défaillance des composants et de leurs éléments

Paramètre de fiabilité (indicateur)

Cause (mécanisme) des échecs

Modèle d'échec

Valeur énergétique d'activation E a, eV

Système physico-chimique

Temps de sortie spontanée d'un état stable τ

Processus de dégradation

Revêtements d'étanchéité (polymères)

Temps moyen entre pannes tr

Destruction (processus de sorption, désorption, migration)

Surface semi-conductrice de type /7

Concentration d'ions de surface n s

Inversion, électromigration

Aluminium massif (volumétrique)

Temps moyen entre pannes t F

Contraintes thermomécaniques

Métallisation (film)

Temps moyen entre pannes t F

Électromigration, oxydation, corrosion, électrocorrosion

Interconnexions

Résistance de contact R.

Formation de composés intermétalliques

Résistances

Résistance de contact R.

Oxydation

Condensateurs

Capacité AVEC

Diffusion, oxydation

Accéléromètre micromécanique (MMA)

Elément de détection du convertisseur de déformation mécanique en accélération

Microfluage

1,5-2

* Données tirées du livre : technologie VLSI. En 2 livres. Livre 2/K. Mogeb [et al.] ; voie de l'anglais; édité par S. Zee. M. : Mir, 1986. P. 431.

Il convient de noter que D. Gibbs l'a prophétiquement poussé à développer ses idées. Comme il est dit dans la préface des « Principes... », il « reconnaît l'infériorité de toute théorie » qui ne prend pas en compte les propriétés des substances, la présence de rayonnements et d'autres phénomènes électriques.

L'équation fondamentale de la matière selon Gibbs (prenant en compte les propriétés thermiques, mécaniques et chimiques) a la forme d'une différentielle complète :

ou, ce qui revient au même, pour faciliter l'analyse visuelle :

ici Gibbs utilise la notation suivante : ε – énergie ; t – température; η – entropie ; R- pression; V- volume; μ, – potentiel chimique ; m i est la fraction molaire du ième composant ( je= 1, ..., P.).

Semenchenko, en utilisant la méthode des fonctions généralisées (formes Pfaffiennes), a introduit l'intensité électrique dans le modèle G ( E) et les champs magnétiques (I), ainsi que les « coordonnées » correspondantes - électriques ( R.) et magnétique ( M.) polarisation, modification du modèle G sous la forme

La procédure étape par étape pour appliquer le modèle le plus simple - Arrhenius - pour analyser les données de test afin de déterminer la dépendance à la température des processus de dégradation des composants ressemble à ceci :

En lien avec ce qui précède, il est important de faire des commentaires sur le concept de fiabilité adopté par l'entreprise. Motorola pour diodes semi-conductrices, transistors et circuits intégrés.

Comme on le sait, la fiabilité est la probabilité qu'un SI soit capable de remplir avec succès ses fonctions dans des conditions d'exploitation données pendant une certaine période de temps. C'est la définition classique.

Une autre définition de la fiabilité est liée à la qualité. Puisque la qualité est une mesure de variabilité, c'est-à-dire variabilité, jusqu'à une incohérence ou une défaillance potentielle cachée dans un échantillon représentatif, la fiabilité est alors une mesure de la variabilité dans le temps dans des conditions d'exploitation. Par conséquent, la fiabilité est une qualité qui se développe au fil du temps dans les conditions d’exploitation.

Enfin, la fiabilité des produits (produits, y compris les composants) est fonction d'une compréhension correcte des exigences du client et de l'introduction ou de la mise en œuvre de ces exigences dans la conception, la technologie de fabrication et le fonctionnement des produits et de leurs structures.

Méthode QFD (qualité déploiement de fonctions) est une technologie permettant de déployer des fonctions qualité, structurant la fonction qualité (c'est-à-dire la conception de produits, dans laquelle les besoins des consommateurs sont d'abord identifiés, puis les caractéristiques techniques des produits et les processus de fabrication sont déterminés pour répondre au mieux aux besoins identifiés, ce qui entraîne une augmentation la qualité des produits) . Méthode QFD utile pour établir et identifier les exigences de qualité et de fiabilité pour leur mise en œuvre dans des projets innovants.

Le nombre de pannes observées sur le nombre total d’heures à la fin de la période d’observation est appelé estimation ponctuelle du taux de panne. Cette estimation est obtenue à partir des observations d'un échantillon, par exemple des sujets IS. L'évaluation du taux de défaillance est effectuée à l'aide de la distribution χ2 :

où λ* – taux d’échec ; UN– niveau de confiance significatif ; v = 2r 2 – nombre de degrés de liberté ; r– nombre de pannes ; P.– nombre de produits ; t- durée du test.

Exemple 5.6

Calculez les valeurs de la fonction χ2 pour le niveau de confiance de 90 %.

Solution

Les résultats du calcul sont donnés dans le tableau. 5.21.

Tableau 5.21

Valeurs calculées de la fonction χ 2 pour un niveau de confiance de 90 %

Augmenter la fiabilité du niveau de confiance de l’évaluation de la durée de fonctionnement requise par l’entreprise aujourd’hui Motorola Une approche est utilisée basée sur la détermination du taux de défaillance des composants sous la forme de l'équation d'Eyring :

A, B, C – coefficients déterminés sur la base des résultats des tests ; T- température; RH- humidité relative; E– l'intensité du champ électrique.

Ainsi, le matériel présenté indique que dans des conditions d'utilisation assez répandue de produits électroniques étrangers avec des indicateurs de fiabilité inconnus, il est possible de recommander l'utilisation des méthodes et modèles présentés dans ce chapitre pour déterminer et prédire les indicateurs de fiabilité des composants et des systèmes : pour les composants - en utilisant des concepts physiques basés sur les équations d'Arrhenius, Eyring, Semenchenko, Gibbs ; pour les systèmes – en utilisant l’analyse combinatoire (types parallèles, séquentiels et hiérarchiques).

  • Le terme « Vallée » utilisé dans la figure est un terme de chimie physique (non officiellement défini), utilisé dans les diagrammes d'état des particules pour les particules qui ont diminué leur énergie, sont « tombées » d'un sommet dans une vallée (par analogie avec l'alpinisme), surmonter une barrière énergétique et perdre de l'énergie une fois les travaux terminés, c'est-à-dire qui ont fait une transition vers un niveau d'énergie inférieur, caractérisé par une énergie de Gibbs plus faible, conséquence de la mise en œuvre du principe d'énergie minimale, décrit dans les potentiels thermodynamiques et introduit dans la science (par exemple, dans la physique théorique) par D . Gibbs lui-même.
  • Gibbs J.W. Principes de base de la mécanique statistique, développés avec une application particulière aux bases rationnelles de la thermodynamique // Gibbs J.W. Thermodynamique. Mécanique statistique : trad. de l'anglais; édité par B.M. Zubareva ; comp. W. I. Frakfurt, A. I. Frank (série "Classics of Science"). M. : Nauka, 1982. pp. 352-353.

Envoyer votre bon travail dans la base de connaissances est simple. Utilisez le formulaire ci-dessous

Les étudiants, étudiants diplômés, jeunes scientifiques qui utilisent la base de connaissances dans leurs études et leur travail vous en seront très reconnaissants.

1. Méthodes de prévision

2. Schéma de prédiction de la fiabilité paramétrique de la machine

3. Application de la méthode de Monte Carlo pour prédire la fiabilité

4. Possibilités de la méthode de modélisation statistique

5. Évaluation des situations extrêmes

Liste de la littérature utilisée

1. Méthodes de prévision

Ces dernières années, la prévision du comportement de systèmes complexes est devenue une science indépendante qui utilise une variété de méthodes et d’outils.

La prévision diffère du calcul du système en ce sens qu'un problème probabiliste est résolu, dans lequel le comportement futur d'un système complexe n'est déterminé qu'avec divers degrés de fiabilité et la probabilité qu'il se trouve dans un certain état dans diverses conditions de fonctionnement est évaluée. En matière de fiabilité, la tâche de prévision revient principalement à prédire la probabilité de fonctionnement sans panne d'un produit P(t) en fonction des modes et conditions de fonctionnement possibles. La qualité des prévisions dépend en grande partie de la source d'informations sur la fiabilité des éléments individuels et des processus de perte de performance. Pour la prévision en général, diverses méthodes sont utilisées utilisant la modélisation, les calculs analytiques, les informations statistiques, les expertises, la méthode des analogies, la théorie de l'information et l'analyse logique, etc.

Typiquement, la prévision associée à l'utilisation d'appareils mathématiques (éléments d'analyse numérique et théorie des fonctions aléatoires) est dite analytique. La spécificité de la prédiction de la fiabilité est que lors de l'estimation de la probabilité de fonctionnement sans panne P (t), cette fonction dans le cas général ne peut pas être extrapolée. Si elle est définie dans une certaine zone, alors en dehors de celle-ci, rien ne peut être dit sur la fonction P(t). Par conséquent, la principale méthode de prévision de la fiabilité des systèmes complexes consiste à évaluer l'évolution de ses paramètres de sortie au fil du temps pour diverses données d'entrée, sur la base de laquelle on peut tirer une conclusion sur les indicateurs de fiabilité pour diverses situations et méthodes possibles d'exploitation d'un système. produit donné.

Nous considérerons le cas de la prédiction de la fiabilité paramétrique d'une machine lorsque la structure de formation de la zone de performance est connue, mais les paramètres qui déterminent cette zone dépendent d'un grand nombre de facteurs et sont dispersés.

Riz. 1 Domaine de prédiction de la fiabilité

2. Schéma de prédiction de la fiabilité paramétrique d'une machine

Riz. 2 Schéma de perte de performances de la machine pour une durée donnée de fonctionnement continu

Sur la base du schéma général de perte de performances de la machine (Fig. 2), nous pouvons présenter trois tâches principales pour prédire la fiabilité (Fig. 1).

1. Le comportement de l'ensemble de la population générale de ces machines est prédit, c'est-à-dire que la variation des caractéristiques initiales de la machine et les conditions possibles de son fonctionnement (surface) sont prises en compte.

2. Le comportement d'un échantillon de machine spécifique est prédit, c'est-à-dire que les paramètres initiaux de la machine deviennent des valeurs non aléatoires, et les modes et conditions de fonctionnement de la machine peuvent changer dans une certaine plage. Dans ce cas, la région des États se rétrécit (région) et devient un sous-ensemble de l’ensemble.

3. Le comportement de cette machine est prévu dans certaines conditions de fonctionnement et dans des conditions de fonctionnement constantes. Dans ce cas, il faut identifier la mise en œuvre d'un procédé aléatoire qui correspond aux conditions opératoires données.

Ainsi, si dans les deux premiers cas il faut prédire la zone possible d'existence des paramètres de sortie et estimer la probabilité de leur localisation dans chaque zone de cette zone, alors dans le troisième cas il n'y a aucune incertitude sur les conditions de fonctionnement du produit, et la prévision est associée uniquement à l'identification des modèles qui décrivent le processus de modification du paramètre de sortie dans le temps.

Riz. 3 Le processus de vieillissement comme fonction aléatoire

Comme on le sait (Fig. 3), l'apparition d'un processus aléatoire peut se produire avec un degré plus ou moins grand de « mélange » des implémentations. Il est à noter que si la prévision concerne un ensemble de produits, alors le degré de mélange n'affecte pas l'appréciation de la région d'existence des paramètres, puisque ce n'est pas le comportement d'un produit donné qui est révélé, mais la probabilité de toute instance d'un ensemble donné dépassant les limites autorisées.

Si le comportement d'une instance de produit donnée dans la région est prédit, alors le taux de changement possible dans le processus de perte de performance dans un avenir proche doit être évalué, c'est-à-dire utiliser la fonction de corrélation.

La précision des prévisions dépend d'un certain nombre de facteurs. Premièrement, cela dépend de la mesure dans laquelle le schéma accepté pour la perte de performance de la machine reflète la réalité objective. Deuxièmement, quelle est la fiabilité des informations sur les modes et conditions de fonctionnement prévu du produit, ainsi que sur ses paramètres initiaux.

Enfin, la précision de la prévision est influencée de manière décisive par la fiabilité des informations sur les modèles de modification des paramètres de sortie du produit pendant le fonctionnement, c'est-à-dire sur les fonctions aléatoires X 1 (t) ; ... ; Xn, (t). Des informations sur la fiabilité du produit (entendant par là l'évaluation des fonctions Xi (t) mentionnées ou des données sur la fiabilité des éléments du produit) peuvent être obtenues à partir de diverses sources. La prévision peut être effectuée au stade de la conception (il existe des spécifications techniques pour le produit, des données de conception sur la machine et ses éléments, les conditions de fonctionnement possibles sont connues). En présence d'un prototype du produit (vous pouvez obtenir les caractéristiques initiales de la machine, estimer la marge de sécurité) et pendant le fonctionnement (il existe des informations sur la perte de performance des produits dans diverses conditions de fonctionnement). Lors de la prévision de la fiabilité d'un produit au stade de la conception, il existe la plus grande incertitude (entropie) dans l'évaluation des états possibles du produit. Cependant, l’approche méthodologique pour résoudre ce problème reste générale.

Dans le cas considéré, elle consiste à utiliser les modèles de défaillance correspondants comme base pour évaluer la probabilité de fonctionnement sans défaillance du produit et comprend les étapes suivantes.

1. Détermination des paramètres initiaux du produit (a o; a), en fonction du processus technologique de fabrication de la machine. Cela est dû aux changements dans la tolérance des tailles de pièces, des propriétés des matériaux, de la qualité de fabrication et d'autres indicateurs. Les valeurs des paramètres initiaux peuvent également dépendre des modes de fonctionnement de la machine.

2. Établissement des valeurs maximales admissibles des paramètres de sortie.

3. Estimation par calcul de l'évolution des paramètres de sortie pendant la période d'inter-mise en service To (v, n, s, a s) en tenant compte de caractéristiques similaires du prototype par des essais en présence d'un prototype ou en tenant compte des normes établies par le norme pour les paramètres de la machine.

4. Évaluation de l'influence des processus de vieillissement () sur les paramètres de sortie du produit sur la base des schémas physiques de défaillances, en tenant compte de leur nature stochastique.

5.Évaluation des spectres des modes de fonctionnement (charges, vitesses et conditions de fonctionnement), qui reflètent les conditions de fonctionnement possibles et déterminent la dispersion des taux de variation des paramètres de sortie (x).

6. Calcul de la probabilité de fonctionnement sans panne de la machine pour chacun des paramètres en fonction du temps.

7. Dès réception des informations sur le fonctionnement du produit pour lequel une prévision a été faite, les données réelles et calculées sont comparées et les raisons de leurs écarts sont analysées.

En fonction de la tâche à accomplir, des domaines doivent être identifiés et ( ou ) la mise en œuvre a été évaluée (Fig. 1), c'est-à-dire que des lois de distribution f (T) ou f (T), ou respectivement P (T) ou P (T), ont été obtenues, reflétant les plages de dispersion de la durée de vie pour l'ensemble de la population (D/) ou pour cette machine (D //). Si les conditions de fonctionnement pour un échantillon donné sont strictement spécifiées, la durée de vie (durée de vie jusqu'à la défaillance) T est prédite.

3. Application de la méthode de Monte Carlo pour la prédiction de la fiabilité

Discuté au Chap. 3 modèles de défaillance sont une description formalisée du processus de perte de fonctionnalité d'une machine et permettent d'établir des liens fonctionnels entre indicateurs de fiabilité et paramètres initiaux.

La nature statistique de ces modèles se manifeste dans le fait que les arguments des fonctions obtenues sont aléatoires et dépendent d'un grand nombre de facteurs. Par conséquent, il est impossible de prédire avec précision le comportement du système, mais vous ne pouvez déterminer que la probabilité de l'un ou l'autre de ses états.

Pour prédire le comportement d'un système complexe, la méthode de modélisation statistique (tests statistiques), appelée méthode de Monte Carlo (184), peut être utilisée avec succès.

L'idée principale de cette méthode est de calculer à plusieurs reprises les paramètres selon un schéma formalisé, qui est une description mathématique d'un processus donné (dans notre cas, le processus de perte de performance).

Dans ce cas, pour les paramètres aléatoires inclus dans les formules, leurs valeurs les plus probables sont sélectionnées conformément aux lois de distribution.

Ainsi, chaque « test » statistique consiste à identifier l'une des implémentations d'un processus aléatoire, puisqu'en substituant, quoique aléatoirement, des arguments sélectionnés mais fixes, on obtient une dépendance déterministe qui décrit ce processus dans des conditions acceptées. En répétant à plusieurs reprises les tests selon ce schéma (ce qui n'est pratiquement possible dans des cas complexes qu'avec l'utilisation d'un ordinateur), nous obtiendrons un grand nombre de réalisations d'un processus aléatoire, ce qui nous permettra d'évaluer l'avancement de ce processus et ses principaux paramètres.

Considérons un schéma fonctionnel simplifié d'un algorithme de calcul sur ordinateur de la fiabilité d'un produit, dont la perte de performance peut être décrite par le schéma de la Fig. 4 et équation

Fig. 4 Schéma de formation d'une défaillance progressive de ce produit

Soit la variation du paramètre de sortie X dépendante de l'usure U de l'un des éléments du produit, c'est-à-dire X = F (U), où F est une fonction connue qui dépend de la conception du produit. Supposons que l'usure soit liée à la pression spécifique p et à la vitesse de glissement de la paire de frottement v par une dépendance de loi de puissance U=kp m 1 v m 2 t, où les coefficients m1 et m2 sont connus (par exemple, à partir d'essais les matériaux de la paire). Le coefficient k évalue la résistance à l'usure des matériaux et les conditions de fonctionnement de l'interface (lubrification, contamination des surfaces).

Ce produit peut être exposé à différentes conditions de fonctionnement et fonctionner selon différents modes. Afin de prédire le processus de perte de fonctionnalité d'un produit, il est nécessaire de connaître les caractéristiques probabilistes des conditions dans lesquelles le produit sera exploité. De telles caractéristiques peuvent être les lois de répartition des charges f (P), des vitesses f (v) et des conditions de fonctionnement f (k). A noter que ces modèles évaluent les conditions dans lesquelles le produit sera situé et peuvent donc être obtenus quelle que soit sa conception à partir de statistiques sur le fonctionnement de machines similaires ou sur les exigences des futurs produits. Par exemple, le spectre des charges et des vitesses dans diverses conditions de fonctionnement des véhicules de transport, les modes de coupe nécessaires lors du traitement d'un type donné de pièces sur des machines à couper les métaux, les charges sur les composants des machines minières lors de l'extraction de diverses roches, etc. peuvent être prédéterminés dans sous forme d'histogrammes ou de lois de distribution.

L'algorithme d'évaluation de la fiabilité à l'aide de la méthode de Monte Carlo (Fig. 5) consiste en un programme pour un test aléatoire, qui détermine la valeur spécifique du taux de changement du paramètre x. Ce test est répété N fois (où N doit être suffisamment grand pour obtenir des données statistiques fiables, par exemple N? 50), et sur la base des résultats de ces tests, l'espérance mathématique cp et l'écart type x du processus aléatoire sont estimés, c'est-à-dire les données nécessaires pour déterminer P (t). La séquence de calcul (test statistique) est la suivante. Après avoir saisi les données nécessaires (opérateur /), les valeurs p, v et k spécifiques à ce test sont sélectionnées (opérateur 2). A cet effet, il existe des sous-programmes qui contiennent des histogrammes ou des lois de distribution qui caractérisent ces valeurs ou déterminent leurs valeurs. Par exemple, au lieu des pressions sur la surface de friction p, on peut préciser la loi de répartition des charges externes P agissant sur le nœud. Dans ce cas, dans le sous-programme, en fonction de la valeur P sélectionnée,

p = F (P), dans le cas le plus simple,

où S est la surface de friction.

Pour sélectionner une valeur spécifique pour chacun des paramètres, en tenant compte de leurs lois de distribution, un générateur de nombres aléatoires est utilisé, à l'aide duquel un nombre aléatoire donné est joué (sélectionné). Habituellement, le générateur est construit de telle manière qu'il produit des nombres uniformément répartis qui, à l'aide de sous-programmes standard, peuvent être transformés de manière à ce que leur densité de distribution corresponde à une loi donnée. Par exemple, pour la loi de distribution normale, des nombres aléatoires r sont générés pour l'espérance mathématique M (z) = O et l'écart type z = 1. Dans le sous-programme, pour chaque cas, une formule de jeu est utilisée qui prend en compte le caractéristiques de la distribution sous-jacente. Ainsi, si p est distribué selon une loi normale avec les paramètres p cf et p, alors la formule de jeu sera p = p cf + p z, où z est obtenu à l'aide de générateurs de nombres aléatoires. Il est possible de créer des sous-programmes pour lire des valeurs de paramètres aléatoires lors de la spécification de leur distribution à l'aide d'histogrammes. Après avoir obtenu des valeurs aléatoires pour chaque expérience, la vitesse du processus d'endommagement est calculée (opérateur 3) et à partir de celle-ci la vitesse du processus de modification du paramètre x (opérateur 4). Cette procédure est répétée N fois et chaque valeur x obtenue est envoyée à la mémoire externe de la machine. Après avoir accumulé la quantité requise de données statistiques, c'est-à-dire lorsque n = N, cp et x sont déterminés (opérateurs 6 et 7), après quoi il est possible de calculer tous deux la probabilité de fonctionnement sans panne P (T) (opérateur 8) et construire un histogramme de distribution x (ou temps jusqu'à défaillance Ti) et imprimer toutes les données nécessaires.

4. Méthode des fonctionnalitéset modélisation statistique

Le cas considéré est le plus simple, mais illustre l'approche méthodologique générale pour résoudre ce problème.

Dans un cas plus complexe, par exemple lors de l'utilisation d'un modèle de défaillance prenant en compte la dispersion des paramètres initiaux (Fig. 6), le programme contient des informations sur les lois de répartition des caractéristiques initiales de la machine.

Selon la loi normale, et des grandeurs positives telles que l'erreur d'excentricité de l'arbre - selon la loi de Maxwell, etc.

Considéré dans la Fig. L'exemple 5 est également caractérisé par le fait que la vitesse du processus est ici constante x = const, et chaque implémentation d'une fonction aléatoire est caractérisée par une valeur spécifique x.

Fig. 6 Schéma de formation de défaillance lorsque les paramètres initiaux du produit se dissipent.

Par exemple, les erreurs de fabrication des pièces sont généralement réparties dans les limites de tolérance.

selon la loi normale, et

des quantités aussi positives que l'erreur d'excentricité de l'arbre - selon la loi de Maxwell, etc.

Considéré dans la Fig. L'exemple 5 est également caractérisé par le fait que la vitesse du processus est ici constante x = const, et chaque implémentation d'une fonction aléatoire est caractérisée par une valeur spécifique x. Par conséquent, modéliser une fonction aléatoire se réduit ici à modéliser une variable aléatoire.

Si l'on considère un problème non linéaire, lorsque la vitesse du processus change dans le temps (t), alors chaque test donnera l'implémentation d'une fonction aléatoire. Pour d'autres actions, chaque mise en œuvre peut être représentée sous forme de nombres dans les sections données t 1 ;t 2 ...t n , couvrant la gamme étudiée de performances du produit.

Il est souvent pratique de représenter une fonction aléatoire sous la forme de son développement canonique

Dans ce cas, les coefficients des fonctions non aléatoires seront aléatoires

Le développement d'implémentations d'une fonction aléatoire sur un calculateur numérique électronique est simplifié dans le cas de sa stationnarité.

Des cas encore plus complexes peuvent survenir s'il existe une relation entre des valeurs adjacentes de paramètres aléatoires. Il faut alors prendre en compte le coefficient de corrélation entre membres adjacents voire plusieurs membres voisins (corrélation multiple). Ce cas peut également être résolu par la méthode de Monte Carlo, mais une modélisation de la fonction de corrélation est nécessaire.

Il convient également de noter que cette méthode est également applicable aux modèles qui caractérisent le processus sous forme de fonctions implicites, ainsi qu'à la description du processus pas nécessairement sous forme de formules mathématiques. Prédire la fiabilité à l'aide de la méthode de Monte Carlo permet de révéler la nature statistique du processus de perte de performance du produit et d'évaluer le poids spécifique de l'influence des facteurs individuels. Par exemple, pour le problème considéré, vous pouvez calculer de combien la probabilité d'un fonctionnement sans panne augmentera si un certain nombre de mesures sont prises pour réduire la pression dans la zone de friction (la conception de l'unité est modifiée), la valeur de le coefficient k est réduit (un nouveau matériau est utilisé), la gamme des modes de fonctionnement de la machine est rétrécie [les paramètres des lois sont modifiés f (P) et f (v)].

La spécificité de l'utilisation de la méthode de modélisation statistique pour calculer la fiabilité est que si habituellement dans la modélisation statistique de systèmes complexes les valeurs requises sont les valeurs moyennes des caractéristiques, alors nous nous intéressons ici à la région des réalisations extrêmes (valeurs ​​proche du max), puisqu'ils déterminent les valeurs de P (T ) .

Par conséquent, pour évaluer la fiabilité des produits critiques, l'étude des situations d'urgence et extrêmes est importante, lorsque sont identifiées les mises en œuvre de processus avec le taux de changement le plus élevé des paramètres de sortie x max.

5. Évaluation des situations extrêmes

Lors de la prévision de la fiabilité, l'identification de la limite extrême de la région d'état du produit revêt une importance particulière, car c'est elle qui détermine sa proximité avec la défaillance. Cette limite est formée en raison des implémentations qui ont les valeurs les plus élevées de la vitesse de processus x. Bien que la probabilité de leur apparition soit faible (elle correspond à la probabilité de défaillance), leur rôle dans l’évaluation de la fiabilité du produit est fondamental. Nous qualifierons de telles réalisations d’extrémistes. Ils peuvent être de deux types : réellement extrêmes, résultant de la combinaison la plus défavorable de facteurs externes, mais dans des limites acceptables, et d'urgence, qui sont associés à une violation des conditions de fonctionnement ou à la manifestation de violations des spécifications lors de la fabrication du produit. .

Implémentation extrême de IV dans la Fig. 1 peut être identifié comme le résultat de la combinaison la plus défavorable de facteurs affectant le taux de changement des paramètres 7l. Il s'agit souvent de modes extrêmes dans lesquels les charges dynamiques augmentent de manière significative. Si pour les systèmes simples, la formulation de conditions extrêmes ne pose généralement pas de difficultés (il s'agit des charges, vitesses, températures les plus élevées), alors pour les systèmes complexes, il est nécessaire de mener des recherches pour identifier une telle combinaison de paramètres qui conduiront à x max En effet, par exemple, augmenter la vitesse du mécanisme pour certains éléments peut conduire à une augmentation de leurs performances (passage au frottement liquide dans un palier lisse, meilleure circulation du liquide de refroidissement, sortie du mécanisme de la zone de résonance, etc. .), et pour d'autres - à une détérioration de leurs conditions de fonctionnement (augmentation des charges dynamiques, augmentation du dégagement de chaleur, etc.). Par conséquent, l'impact total sur le mécanisme ne sera plus important que dans certains modes de fonctionnement. S'il est nécessaire d'identifier le pire état initial d'un produit, alors il faut également résoudre le problème de la répartition des tolérances (TS) la plus défavorable pour les éléments et évaluer la probabilité de cette situation (par exemple, trouver les dimensions de toutes les pièces aux limites des champs de tolérance sont peu probables).

De plus, lors de l'évaluation de la fiabilité d'un produit en tenant compte de tous ses principaux paramètres X 1, X 2, ..., X n, les modes auront des effets différents sur leurs évolutions, ce qui élimine la possibilité de prédéterminer à l'avance le pire combinaison d’entre eux. Tout cela indique que l'identification des situations extrêmes est également une tâche de recherche statistique, qui peut être réalisée à l'aide de la méthode de Monte Carlo. Cependant, le jeu doit être joué dans une zone correspondant à une faible probabilité d'échec, mais avec des valeurs acceptables des paramètres d'entrée (valeurs d'arguments aléatoires).

Les situations d'urgence sont associées à deux raisons principales. Il s’agit d’abord d’une augmentation des charges et impacts externes au-delà des spécifications établies lorsque la machine se retrouve dans des conditions de fonctionnement inacceptables. Pour les composants et éléments individuels de la machine, cette situation peut survenir en raison de dommages aux pièces adjacentes sans importance, ce qui affectera le fonctionnement de ce composant. Par exemple, l'usure accrue d'une connexion sans importance n'affecte pas en soi les performances de cette paire, mais les produits d'usure obstruent le lubrifiant et endommagent les autres connexions. Une génération accrue de chaleur peut entraîner des déformations inacceptables des éléments voisins.

Deuxièmement, la survenance de situations d'urgence est associée à la violation des spécifications de fabrication et d'assemblage des produits. Des défauts de fabrication peuvent apparaître de manière inattendue et entraîner une défaillance du produit.

Bien que la probabilité de situations extrêmes puisse être évaluée, la survenance d’une situation d’urgence est difficile à prévoir et, dans la plupart des cas, presque impossible. Il est généralement possible de dresser une liste de situations d'urgence typiques, de prouver que la probabilité de leur apparition est extrêmement faible (si ce n'est pas le cas, la conception doit être modifiée) et, surtout, d'évaluer les conséquences possibles de chaque situation. L'évaluation de la nature des conséquences et du temps nécessaire pour éliminer la situation survenue détermine le degré de danger d'une situation d'urgence donnée.

Ainsi, la prévision de l'éventail des états possibles du produit et de ses indicateurs de fiabilité pour les objets hautement critiques est complétée par une analyse des situations d'urgence et extrêmes avec une évaluation de leurs conséquences.

En conclusion, il convient de noter que le développement de méthodes de prévision de la fiabilité des machines aura un effet économique énorme, puisque, d'une part, le temps et l'argent consacrés aux tests des prototypes seront réduits, et d'autre part, il y aura une approche plus rationnelle. utilisation de la durabilité potentielle du produit grâce à des systèmes de réparation et d'exploitation appropriés ; troisièmement, même au stade de la conception, il sera possible de sélectionner la solution de conception optimale du point de vue de la fiabilité.

Liste de la littérature utilisée:

1. Pronikov A.S. Fiabilité des machines Moscou "Construction de machines" 1978

2. Bouslenko N.P. Modélisation de systèmes complexes M. ; "Sciences" 1969

3. Elizavetine M.A. Augmenter la fiabilité des machines M ; "Génie Mécanique" 1973

Documents similaires

    Description de la conception d'un compresseur de moteur à turbine à gaz. Calcul de la probabilité de fonctionnement sans panne de l'aube et du disque de roue de l'étage d'entrée d'un compresseur axial subsonique. Calcul de la fiabilité des aubes de compresseur sous chargement statique répété.

    travail de cours, ajouté le 18/03/2012

    Construction de la probabilité empirique de fonctionnement sans panne. Détermination des paramètres de distribution par la méthode itérative. Prise en compte des caractéristiques quantitatives de chaque facteur séparément. Détermination du temps moyen jusqu'à la première panne de l'appareil.

    rapport de pratique, ajouté le 13/12/2017

    Brève description de la conception du moteur. Standardisation du niveau de fiabilité des aubes de turbine. Détermination du temps moyen entre pannes. Calcul de la fiabilité de la turbine sous chargement statique répété et de la fiabilité des pièces en tenant compte de la résistance à long terme.

    travail de cours, ajouté le 18/03/2012

    Objectif, classification et justification du choix d'une machine minière en fonction des conditions de travail. Calcul statique des paramètres technologiques du fonctionnement de la machine. Conception, principe de fonctionnement, fonctionnement des équipements mécaniques et entraînement. Mécanisme de levage.

    travail de cours, ajouté le 11/08/2011

    Exigences de fiabilité du produit. Analyse de fiabilité des systèmes dupliqués. Probabilité de fonctionnement sans panne selon un critère donné. Répartition des pannes dans le temps. Bases de calcul des assemblages filetés et boulonnés sous charge constante.

    test, ajouté le 09/11/2011

    Normes étatiques sur la problématique de la fiabilité des installations énergétiques en exploitation. Modification du taux de défaillance avec l'augmentation de la durée de fonctionnement d'un objet. Probabilité de fonctionnement sans panne. Indicateurs de durabilité et modèle de durée de vie en pourcentage gamma.

    présentation, ajouté le 15/04/2014

    Concepts de théorie de la fiabilité. Probabilité de fonctionnement sans panne. Indicateurs de taux de défaillance. Méthodes pour augmenter la fiabilité des équipements. Cas de pannes, préservation des performances des équipements. Critères et caractéristiques quantitatives de son évaluation.

    travail de cours, ajouté le 28/04/2014

    Analyse de l'évolution de la probabilité de fonctionnement sans panne du système en fonction de la durée de fonctionnement. Le concept de pourcentage de temps de fonctionnement d'un système technique, les caractéristiques permettant d'assurer son augmentation en augmentant la fiabilité des éléments et la redondance structurelle des éléments du système.

    test, ajouté le 16/04/2010

    Indicateurs de fiabilité du système. Classification des pannes d'un complexe de moyens techniques. La probabilité de rétablir leur état de fonctionnement. Analyse des conditions de fonctionnement des systèmes automatiques. Méthodes pour augmenter leur fiabilité lors de la conception et de l'exploitation.

    résumé, ajouté le 02/04/2015

    Schéma fonctionnel de la fiabilité du système technique. Graphique des changements dans la probabilité de fonctionnement sans panne du système depuis la durée de fonctionnement jusqu'au niveau de 0,1-0,2. 2. Détermination du temps de fonctionnement en pourcentage Y du système technique.

Matériel pour les cours pratiques n°6 et 7.

Prédiction de fiabilité.

Prédiction de fiabilité. Prédire la fiabilité en tenant compte des informations préliminaires. Utiliser des signes indirects de prédiction d’échec. Prédiction de fiabilité individuelle. Prédiction individuelle de la fiabilité à l'aide de la méthode de reconnaissance de formes (Procédure de test. Procédure de formation de la fonction de reconnaissance. Procédure de prédiction de la qualité du produit. Un exemple de méthode de prédiction individuelle de la qualité du produit.).

PZ.6-7.1. Prédiction de fiabilité.

Conformément aux GOST en vigueur, les spécifications techniques des produits (objets) conçus comprennent : exigences de confirmation expérimentale un niveau de fiabilité donné tenant compte des charges existantes.

Pour les objets hautement fiables (par exemple, la technologie spatiale), cette exigence est trop dur(au sens de la nécessité de tester un grand nombre d’objets similaires) et pas toujours réalisable en pratique. En fait, afin de confirmer la probabilité de fonctionnement sans panne P = 0,999 avec une probabilité de confiance de 95 %, 2996 tests réussis devraient être effectués. Si au moins un test échoue, le nombre de tests requis augmentera encore plus. À cela s’ajoute une durée de test très longue, car de nombreux objets doivent combiner un haut niveau de fiabilité avec une longue durée de fonctionnement (ressource). Il en résulte exigence importante: lors de l'évaluation de la fiabilité, il est nécessaire de prendre en compte toutes les informations préliminaires accumulées sur la fiabilité des objets techniques.

La prévision de la fiabilité et des défaillances est une prédiction des indicateurs de fiabilité attendus et de la probabilité de défaillances dans le futur sur la base d'informations obtenues dans le passé ou sur la base de signes prédictifs indirects.

Les calculs de fiabilité au stade de la conception du produit présentent les caractéristiques d'une telle prévision, puisqu'on tente de prévoir l'état futur d'un produit encore en phase de développement.

Certains des tests évoqués ci-dessus contiennent des éléments permettant de prédire la fiabilité d'un lot de produits en fonction de la fiabilité de leur échantillon, par exemple : selon le planning des tests. Ces méthodes de prévision reposent sur l’étude de schémas statistiques de défaillances.

Mais il est possible de prédire la fiabilité et les pannes en étudiant les facteurs à l’origine des pannes. Dans ce cas, outre les modèles statistiques, des facteurs physiques et chimiques affectant la fiabilité sont également pris en compte, ce qui complique son analyse, mais permet de réduire sa durée et de la rendre plus informative.

PZ.6-7.2. Prédire la fiabilité en tenant compte des informations préliminaires.

Lors de l'évaluation de la fiabilité, il est nécessaire de prendre en compte toutes les informations préliminaires accumulées sur la fiabilité des objets techniques. Par exemple, il est important de combiner les informations calculées obtenues au stade de la conception préliminaire avec les résultats des tests de l'objet. De plus, les tests eux-mêmes sont également très divers et sont réalisés à différentes étapes de la création d'un objet et à différents niveaux de son assemblage (éléments, blocs, unités, sous-systèmes, systèmes). La prise en compte des informations caractérisant l'évolution de la fiabilité dans le processus d'amélioration d'un objet permet de réduire significativement le nombre de tests nécessaires à la confirmation expérimentale du niveau de fiabilité atteint.

Dans le processus de création d'objets techniques, des tests sont effectués. Sur la base de l'analyse des résultats de ces tests, des modifications sont apportées à la conception visant à améliorer leurs caractéristiques. Il est donc important d’évaluer l’efficacité de ces mesures et si la fiabilité de l’installation s’est réellement améliorée après les modifications. Une telle analyse peut être réalisée à l'aide de méthodes de statistiques mathématiques et de modèles mathématiques de changements de fiabilité.

Si la probabilité d'un événement dans une seule expérience est égale à R. et à n expériences indépendantes, cet événement (échec) s'est produit m fois, alors les limites de confiance pour p trouvé comme suit :

Cas 1. Laisser m¹ 0 , Alors:

(PZ.6-7.2.)

où sont les coefficients R1 Et R2 sont extraites des tableaux statistiques correspondants.

Cas 2. Laisser m=0, Alors pH=0, et la limite supérieure est

. (PZ.6-7.3.)

Calcul R0 est produit par l’équation

(PZ.6-7.4.)

Probabilités de confiance unilatérales g 1 Et g 2 associé à un niveau de confiance bilatéral γ * dépendance connue

(PZ.6-7.5.)

Essais au banc et au sol fournir des informations de base sur la fiabilité de l'objet. Sur la base des résultats de ces tests, ils déterminent indicateurs de fiabilité. Si un produit technique est un système complexe et que la fiabilité de certains éléments est déterminée expérimentalement et d'autres par des calculs, alors ils utilisent pour prédire la fiabilité d'un système complexe méthode des parties équivalentes.

Pendant les essais en vol recevoir des informations supplémentaires sur la fiabilité de l'objet et ces informations doivent être utilisées pour clarifier et ajuster les indicateurs de fiabilité obtenus lors des tests au banc. Qu'il soit nécessaire de clarifier limite inférieure probabilité de fonctionnement sans panne d'un objet ayant passé avec succès les essais au sol et les essais en vol et en même temps m=0.

Comme indiqué ci-dessus selon les principes de base du calcul On distingue les propriétés qui composent la fiabilité, ou indicateurs complexes de fiabilité des objets :

Méthodes de prévision

Méthodes de calcul de structure,

Méthodes de calcul physique,

Méthodes prévision sont basés sur l'utilisation de données sur les valeurs atteintes et les tendances identifiées dans l'évolution des indicateurs de fiabilité des objets analogiques pour évaluer le niveau de fiabilité attendu d'un objet. ( Objets analogiques – Il s'agit d'objets similaires ou proches de celui considéré en termes de destination, de principes de fonctionnement, de conception de circuits et de technologie de fabrication, de base d'éléments et de matériaux utilisés, de conditions et modes de fonctionnement, de principes et méthodes de gestion de la fiabilité).

De construction méthodes calcul sont basés sur la représentation d'un objet sous la forme d'un diagramme logique (structural-fonctionnel) qui décrit la dépendance des états et transitions de l'objet aux états et transitions de ses éléments, en tenant compte de leur interaction et des fonctions qu'ils effectuer dans l'objet, avec des descriptions ultérieures du modèle structurel construit avec un modèle mathématique adéquat et le calcul des indicateurs de fiabilité de l'objet en fonction des caractéristiques de fiabilité connues de ses éléments.

Physique méthodes calcul sont basés sur l'utilisation de modèles mathématiques, décrivent leurs processus physiques, chimiques et autres conduisant à des défaillances d'objets (à des objets atteignant un état limite), et le calcul d'indicateurs de fiabilité basés sur des paramètres connus (charge de l'objet, caractéristiques des substances et matériaux utilisés dans l'objet, en tenant compte des caractéristiques de ses technologies de conception et de fabrication.

Les méthodes de calcul de la fiabilité d'un objet particulier sont choisies en fonction : - des finalités du calcul et des exigences de précision pour déterminer les indicateurs de fiabilité de l'objet ;

Disponibilité et/ou possibilité d'obtenir les premières informations nécessaires à l'application d'une certaine méthode de calcul ;

Le niveau de sophistication de la technologie de conception et de fabrication de l'objet, de son système de maintenance et de réparation, permettant l'utilisation de modèles de calcul de fiabilité appropriés. Lors du calcul de la fiabilité d'objets spécifiques, il est possible d'utiliser simultanément diverses méthodes, par exemple des méthodes de prédiction de la fiabilité d'éléments électroniques et électriques avec l'utilisation ultérieure des résultats obtenus comme données initiales pour calculer la fiabilité de l'objet en tant que l'ensemble ou ses composants en utilisant diverses méthodes structurelles.

4.2.1. Méthodes de prédiction de la fiabilité

Des méthodes de prévision sont utilisées :

Justifier le niveau requis de fiabilité des objets lors de l'élaboration des spécifications techniques et/ou évaluer la probabilité d'atteindre les indicateurs de fiabilité spécifiés lors de l'élaboration de propositions techniques et de l'analyse des exigences des spécifications techniques (contrat) ;

Pour une évaluation approximative du niveau de fiabilité attendu des objets dès les premiers stades de leur conception, lorsqu'il n'existe pas d'informations nécessaires à l'utilisation d'autres méthodes de calcul de fiabilité ;

Calculer le taux de défaillance des composants électroniques et électriques de différents types produits en série et nouveaux, en tenant compte du niveau de leur charge, de la qualité de fabrication, des domaines d'application de l'équipement dans lequel les éléments sont utilisés ;

Calculer les paramètres des tâches et opérations typiques de maintenance et de réparation d'objets, en tenant compte des caractéristiques structurelles de l'objet qui déterminent sa maintenabilité.

Pour prédire la fiabilité des objets, les éléments suivants sont utilisés :

Méthodes de prévision heuristique (expertise) ;

Melols de prévision à l'aide de modèles statistiques;

Méthodes combinées.

Méthodes heuristique prévision sont basés sur un traitement statistique d'estimations indépendantes des valeurs des indicateurs de fiabilité attendus de l'objet en cours de développement (et prévisions individuelles) données par un groupe d'experts qualifiés sur la base des informations qui leur ont été fournies sur l'objet, les conditions de son exploitation, la technologie de production prévue et d'autres données disponibles au moment de l'évaluation. Une enquête auprès d'experts et un traitement statistique des prévisions individuelles des indicateurs de fiabilité sont effectués à l'aide de méthodes généralement acceptées pour l'expertise de tout indicateur de qualité (par exemple, la méthode Delphi).

MÉTHODES DE PRÉVISIONstatistique des modèles sont basés sur l'extra- ou l'interpolation de dépendances qui décrivent les tendances identifiées dans l'évolution des indicateurs de fiabilité des objets analogiques, en tenant compte de leur conception et de leurs caractéristiques technologiques et d'autres facteurs, dont les informations ne sont pas disponibles pour l'objet en cours de développement ou peuvent être obtenues sur le moment de l’évaluation. Les modèles de prévision sont construits sur la base de données sur des indicateurs de fiabilité et des paramètres d'objets analogiques à l'aide de méthodes statistiques bien connues (analyse de régression multivariée, méthodes de classification statistique et de reconnaissance de formes).

Combiné méthodes reposent sur l'application conjointe de méthodes de prévision basées sur des modèles statistiques et des méthodes heuristiques pour prédire la fiabilité, suivie d'une comparaison des résultats. Dans ce cas, des méthodes heuristiques sont utilisées pour évaluer la possibilité d'extrapolation de modèles statistiques et affiner la prévision des indicateurs de fiabilité sur leur base. L'utilisation de méthodes combinées est conseillée dans les cas où il y a des raisons d'attendre des changements qualitatifs dans le niveau de fiabilité des objets qui ne sont pas reflétés par les modèles statistiques correspondants, ou lorsque le nombre d'objets analogiques est insuffisant pour appliquer uniquement des méthodes statistiques.

La fiabilité d'un produit est définie lors de l'élaboration de la conception de ses éléments, en tenant compte de l'analyse des défaillances probables et des causes de leur apparition (méthode FMEA), ainsi que lors du processus de test des prototypes avant le début de la production en série. de produits. Les tests de prototypes de nouveaux produits visent à identifier les défauts de conception. Dans le même temps, la production de prototypes est réalisée, en règle générale, non pas en utilisant la technologie en série, mais le plus souvent par des méthodes d'assemblage individuel de composants et de pièces basées sur des technologies de routage.

Dans le processus de production en série de produits, la qualité des processus technologiques est testée. Dans le meilleur des cas, avec une maîtrise idéale des produits fabriqués, les produits commerciaux ne présentent pas de défauts technologiques et leur fiabilité est entièrement déterminée par la qualité de la documentation de conception. Dans le même temps, la pratique montre que la qualité des processus technologiques affecte la fiabilité des produits sous la forme de défauts ou d'écarts évidents (non détectés par le contrôle) et cachés (associés à la complexité du rejet) par rapport à la documentation de conception.

Niveau de qualité du processus de fabrication de la ième pièce K l " peut être déterminé par le nombre relatif de pièces défectueuses et les défauts par lot de produits Lf réellement fabriqués à l'aide de ce procédé technique

Même niveau de qualité K l " peut également être déterminé par les indicateurs économiques du processus. Supposons que pendant une certaine période de temps (par exemple, par équipe) dans une zone donnée, il soit nécessaire de produire une marchandise de pièces commerciales pour compléter une unité d'assemblage. Le coût estimé (prévu) de fabrication des pièces de base Qp ac est déterminé par la formule

S 1ZH- coût estimé (prévu) de fabrication d'une pièce.

Si, lors de l'inspection d'un lot de pièces fabriquées par LG f, il y a des pièces défectueuses, alors pour compléter le lot à partir de N T0B de pièces commerciales, il faudra produire le même nombre de pièces commerciales qui ont été rejetées lors de l'inspection. Évidemment, le coût réel d'un lot de pièces de base il y aura plus

le coût estimé du lot pour le coût de fabrication des pièces défectueuses. Ensuite, le niveau de qualité du processus de fabrication peut être déterminé par la formule

où C f est le coût réel de fabrication d'une pièce.

Il est fort possible que le temps de production d'une pièce soit augmenté en raison du non-respect de la discipline technologique, ce qui entraîne également une augmentation du coût des produits fabriqués. Pour résoudre le problème, nous nous intéressons aux coûts liés à la qualité du processus technologique, et non à la violation de la discipline technologique.

L'une des tâches les plus importantes pour produire des produits compétitifs est de réduire le coût de leur production. Il est donc important d'évaluer à quelle étape de la fabrication d'un produit (composant, assemblage) les coûts pour assurer sa qualité dépassent les normes prévues.

La formule (2.14), comme la formule (2.15), peut être utilisée non seulement pour évaluer la qualité du processus de fabrication des pièces, mais également lors de la réalisation de toute autre opération technologique, y compris l'assemblage. Dans ce dernier cas, évaluer le niveau de qualité de l’opération d’assemblage KDT vous pouvez utiliser le ratio suivant :

S s6f- respectivement, le coût calculé (prévu) et réel de l'opération d'assemblage.

Évaluons la qualité de fabrication de l'unité d'assemblage au niveau du kit. Si les indicateurs standards des opérations d'assemblage sont connus, alors, à l'aide de la formule (2.16), on obtient pour le niveau de qualité d'assemblage du kit K Ksh le rapport suivant :

Avec kshrzh, Avec ksh f - respectivement, le coût calculé (prévu) et réel d'assemblage du kit.

La formule (2.17) concerne uniquement la qualité du processus d'assemblage d'un kit à partir de pièces, mais ne constitue pas une évaluation du niveau de qualité de fabrication du kit dans son ensemble. Pour ce faire, il est nécessaire de prendre en compte le niveau de qualité de fabrication de toutes les pièces incluses dans le kit. Si le kit ne comprend que deux pièces avec des niveaux de finition différents K l ", alors la qualité du kit sera

À zhtsr- niveau moyen de qualité de fabrication des pièces.

Si les kits sont constitués de nombres différents de différents types de pièces, il est alors nécessaire de déterminer le niveau donné de qualité de fabrication des pièces K detpr incluses dans le kit. Où

En utilisant un kit simple comme exemple, nous dériverons une formule pour calculer le niveau donné de qualité de fabrication des pièces incluses dans le kit. Supposons que le kit soit composé de deux types de pièces, et nous avons le premier type T, Par 1degsr, et le deuxième type t 2 pièces avec un niveau de qualité de processus moyen Par 2zhgsr. Alors

Nous résolvons l’équation (2.21) par rapport à K l „ schg

D'après la formule (2.21), il est clair que si les niveaux de qualité du processus de fabrication de toutes les pièces sont les mêmes, alors le niveau de qualité donné de la fabrication des pièces est égal au niveau de qualité du processus de fabrication de toute pièce incluse. dans la trousse.

Les niveaux de qualité du processus de fabrication des autres unités d'assemblage, y compris les composants (assemblages), sont calculés de la même manière. Niveau de qualité du produit K pa, composé de nœuds sera

K y:a„ (> - le niveau donné de qualité des composants de fabrication ;

Kshd.sb - niveau de qualité du processus d'assemblage du produit.

En pratique, lors de l'assemblage d'un produit, on rencontre assez souvent la quasi-totalité des éléments de niveau inférieur du produit (ensemble, sous-ensemble, kit, pièce de base). Montrons comment dans ce cas est déterminé le niveau donné de qualité de fabrication de l'assemblage ÀG "" G. Supposons que le produit soit constitué de deux unités différentes (en quantités, respectivement d ( Et ré 2) et une partie de base. On compose une équation par analogie avec l'équation (2.20)

En résolvant l'équation, on obtient

D'après l'équation (2.24), il est clair que la qualité du processus de fabrication des pièces affecte d'autant plus la qualité du processus de fabrication du produit que le niveau d'assemblage de cette pièce est élevé. Cela signifie qu’une attention particulière doit être portée à la qualité de fabrication et au contrôle des pièces de base.

Si à chaque étape (pièce, ensemble, sous-ensemble, assemblage) de la production la qualité de fabrication des éléments du produit est la même, alors l'équation (2.22) peut être réécrite comme suit :

Si des éléments individuels d'un produit sont fournis dans le cadre d'une coopération, le niveau de qualité de leur processus de fabrication lors du calcul de la qualité du produit doit être considéré comme un seul, car la véritable valeur de leur niveau de qualité est inconnue. Grâce à des relations commerciales établies avec les fournisseurs de composants, il est possible de travailler ensemble pour évaluer la qualité de fabrication de ces composants.

Prédire la fiabilité des produits en fonctionnement est possible en déterminant les coefficients de couplage a entre le niveau de qualité de fabrication du ième nœud K y et la probabilité de fonctionnement sans panne du même nœud P(t) pendant l'exploitation sur la base des résultats de réclamations concernant des produits commerciaux. Dans ce cas, la probabilité prédite de fonctionnement sans panne du nouveau produit est R kzl sur la base des résultats de l'évaluation du niveau de qualité des composants de fabrication (assemblages) du produit a la forme

P- le nombre de composants principaux (unités) du produit qui affectent son fonctionnement sans problème.

Il est évident que lors de l'analyse des valeurs des coefficients de couplage a, il est possible d'identifier les endroits (nœuds) les plus faibles (dangereux) ou les défauts cachés du produit, auxquels il faut tout d'abord prêter attention lors du développement d'une usine. programme visant à améliorer la qualité des produits.