banner

Nouvelles

Sep 26, 2023

Humain

Nature volume 616, pages 707–711 (2023)Citer cet article

22 000 accès

1 Citations

490 Altmétrique

Détails des métriques

L'un des goulots d'étranglement pour la construction de puces semi-conductrices est le coût croissant requis pour développer des processus de plasma chimiques qui forment les transistors et les cellules de stockage de mémoire1,2. Ces processus sont encore développés manuellement par des ingénieurs hautement qualifiés à la recherche d'une combinaison de paramètres d'outils qui produit un résultat acceptable sur la plaquette de silicium3. Le défi pour les algorithmes informatiques est la disponibilité de données expérimentales limitées en raison du coût élevé d'acquisition, ce qui rend difficile la formation d'un modèle prédictif avec une précision à l'échelle atomique. Ici, nous étudions des algorithmes d'optimisation bayésiens pour étudier comment l'intelligence artificielle (IA) pourrait réduire le coût de développement de processus complexes de puces semi-conductrices. En particulier, nous créons un jeu de processus virtuel contrôlé pour évaluer systématiquement les performances des humains et des ordinateurs pour la conception d'un processus de fabrication de semi-conducteurs. Nous constatons que les ingénieurs humains excellent dans les premières étapes du développement, alors que les algorithmes sont beaucoup plus rentables près des tolérances étroites de la cible. De plus, nous montrons qu'une stratégie utilisant à la fois des concepteurs humains avec une grande expertise et des algorithmes dans une stratégie premier humain-dernier ordinateur peut réduire de moitié le coût pour cibler par rapport aux seuls concepteurs humains. Enfin, nous soulignons les défis culturels liés au partenariat entre les humains et les ordinateurs qui doivent être résolus lors de l'introduction de l'intelligence artificielle dans le développement de processus de semi-conducteurs.

Les puces à semi-conducteurs sont au cœur de tous les systèmes d'intelligence artificielle (IA) dans le monde, fonctionnant sur des états numériques 0 et 1 définis par des transistors et des cellules de mémoire de taille nanométrique. La fabrication de ces dispositifs miniatures sur des tranches de silicium est un processus de fabrication compliqué impliquant des centaines d'étapes de processus spécialisées, dont près de la moitié nécessitent des processus chimiques complexes au plasma, tels que la gravure et le dépôt3. Ironiquement, le développement de ces processus critiques qui permettent l'IA est toujours effectué par des ingénieurs de processus humains utilisant leur intuition et leur expérience, se tournant souvent vers des essais et des erreurs. L'application de l'IA à l'ingénierie des processus pour la création de nouvelles puces est d'intérêt général, car l'automatisation de cette activité pourrait évoquer des scénarios de la soi-disant «singularité», au cours desquels l'IA apprend effectivement à se construire davantage4,5.

L'IA a de nombreux exemples d'algorithmes informatiques surpassant les humains dans des tâches complexes, telles que jouer à des jeux de société tels que les échecs et Go6,7. Cependant, dans ces cas, l'ordinateur ne prend des décisions qu'après s'être entraîné ou avoir généré une grande quantité de données peu coûteuses. En revanche, la collecte de données de processus sur des plaquettes de silicium coûte cher : plus d'un millier de dollars par expérience pour la plaquette, le fonctionnement de l'équipement plasma et la microscopie électronique. Par conséquent, les ingénieurs développent généralement des processus de semi-conducteurs en ne testant que de l'ordre d'une centaine - sur potentiellement plusieurs billions de - différentes combinaisons de paramètres de plasma, tels que la pression, les puissances, les flux de gaz réactifs et la température des tranches. Contrairement aux jeux de société, qui ont des règles claires, les systèmes wafer-réacteur sont régis par un nombre inestimable d'interactions physiques et chimiques microscopiques entre le matériau wafer, les espèces de plasma et les parties du réacteur8,9. L'absence de données suffisantes dans une région d'intérêt spécifique rend difficile la formation de modèles informatiques avec une précision à l'échelle atomique, connue sous le nom de « petit » problème de données10. Ainsi, le défi que nous posons à l'IA est de réduire le coût par rapport à la cible (c'est-à-dire de minimiser le nombre de données à collecter) du développement d'un processus de semi-conducteur par rapport à un ingénieur de processus humain expérimenté.

Dans ce travail, nous avons comparé les performances des algorithmes informatiques par rapport à des ingénieurs de processus humains expérimentés, en nous concentrant sur un scénario dans lequel un ordinateur non formé n'a accès qu'aux données collectées. Inspirés par les approches d'IA des échecs dans lesquelles des agents informatiques rivalisent avec des humains, nous avons créé un jeu d'ingénierie de processus dans lequel l'objectif pour un joueur - humain ou un algorithme informatique - est de développer un processus complexe au moindre coût pour cibler. Organiser un tel concours en utilisant de vraies tranches serait coûteux et peu pratique en raison de la variabilité incontrôlée des tranches entrantes, de la métrologie et des équipements de traitement qui rendraient difficile l'interprétation des résultats. Pour surmonter ces difficultés pratiques, nous avons organisé le concours sur une plate-forme virtuelle sophistiquée qui permet de comparer les participants dans le même espace de processus.

Le concours s'est déroulé dans un environnement virtuel conçu pour ressembler au laboratoire, comme le montre schématiquement la figure 1. Notre processus d'étude de cas est une gravure au plasma en une seule étape d'un trou à rapport d'aspect élevé dans un film de dioxyde de silicium, l'une des nombreuses étapes de gravure utilisées pour fabriquer des puces semi-conductrices11. La simulation de ce processus a été paramétrée et calibrée à partir de données existantes dans un simulateur de profil de caractéristiques propriétaire, en utilisant des relations basées sur la physique et empiriques pour connecter une « recette » de combinaison de paramètres d'outil d'entrée à un résultat de gravure de sortie sur la plaquette virtuelle (Méthodes). Pour le participant, ce simulateur sert de boîte noire9 efficace de conversion d'une recette (par exemple, pression, puissances et température) aux exigences d'une étape de processus nécessaire à la fabrication d'une puce semi-conductrice.

L'entrée du processus virtuel est une « recette » qui contrôle les interactions du plasma avec une plaquette de silicium. Pour une recette donnée, le simulateur génère des métriques ainsi qu'une image en coupe d'un profil sur la plaquette. Le profil cible est affiché avec des exemples d'autres profils qui n'atteignent pas la cible. Le but du jeu est de trouver une recette appropriée au coût le plus bas possible. CD, dimension critique.

Comme dans le laboratoire, le but du jeu est de minimiser le coût par rapport à l'objectif de trouver une recette qui produit des métriques de sortie qui répondent à l'objectif. Le participant soumet un lot (une ou plusieurs recettes) et reçoit des métriques de sortie et des images de profil en coupe. Le participant continue à soumettre des lots jusqu'à ce que l'objectif soit atteint tel que défini dans le tableau de données étendu 1, correspondant au profil illustré à la Fig. 1. Nous définissons une « trajectoire » comme une série de lots effectués pour atteindre l'objectif. Estimés à partir des coûts réels, nous attribuons un coût de 1 000 $ par recette pour les coûts de plaquette et de métrologie et des frais généraux de 1 000 $ par lot pour le fonctionnement de l'outil. De nombreuses recettes potentiellement gagnantes existent en raison des niveaux élevés de dégénérescence dans l'espace des paramètres d'entrée. Pourtant, nous avons vérifié au départ les faibles chances d'atteindre l'objectif au hasard : 0,003 % par recette sur la base de 35 000 échantillons aléatoires.

La référence pour le coût par rapport à la cible a été déterminée par des acteurs humains. Les volontaires comprenaient six ingénieurs de procédé professionnels titulaires d'un doctorat en sciences physiques : trois ingénieurs seniors avec plus de sept ans d'expérience et trois ingénieurs juniors avec moins d'un an d'expérience. Les ingénieurs ont conçu leurs expériences en utilisant des hypothèses mécanistes basées sur leurs connaissances antérieures des tendances des processus et des dépendances des paramètres du plasma. Ils ont choisi une taille de lot moyenne de quatre recettes, en utilisant des changements de paramètres univariés ou bivariés dans 95 % de tous les choix de recettes. À titre de référence, trois personnes inexpérimentées sans expérience pertinente du processus ont également participé.

Les trajectoires des ingénieurs de procédés sont illustrées à la Fig. 2 (voir Données étendues Fig. 1 pour les humains inexpérimentés et Données étendues Tableau 2 pour une liste des résultats). Leurs trajectoires montrent des chemins qualitativement similaires avec des progrès progressifs vers la cible, que nous caractérisons en deux étapes : réglage grossier et réglage fin. Le réglage approximatif fait référence à l'amélioration rapide initiale vers la cible, tandis que le réglage fin fait référence à la lente progression à la fin de la trajectoire au cours de laquelle les ingénieurs ont eu du mal à atteindre simultanément toutes les métriques de sortie. Les ingénieurs seniors nécessitaient environ la moitié du coût des ingénieurs juniors pour la même quantité de progrès. Le participant humain gagnant est l'ingénieur senior no. 1 avec un coût par rapport à l'objectif de 105 000 $, comme indiqué dans l'encadré de la Fig. 2. Il s'agit de notre référence humaine « experte ».

Les trajectoires sont suivies par le Progress Tracker tel que défini dans les Méthodes. L'objectif est atteint lorsque le Progress Tracker est à 0. Les trajectoires des ingénieurs seniors sont en vert et les ingénieurs juniors en bleu. La trajectoire de l'expert gagnant (ingénieur senior 1) est mise en évidence dans l'encart, montrant les points de transfert A à E utilisés dans la stratégie HF-CL. AU, unités arbitraires.

Données source

Les algorithmes informatiques participant à ce concours sont des optimisations bayésiennes, une méthode d'apprentissage automatique couramment utilisée pour les fonctions de boîte noire coûteuses12,13,14. Cette classe d'algorithmes a été étudiée sur d'autres applications dans l'industrie des semi-conducteurs15,16,17. Trois variétés diverses d'optimisations bayésiennes ont été sélectionnées : (1) Algo1 utilisant l'échantillonnage Monte Carlo de la chaîne de Markov18, un modèle de substitution linéaire multivarié pour compenser le coût de calcul élevé de l'échantillonnage et une fonction d'amélioration attendue (EI). (2) Algo2 à partir d'un logiciel open-source utilisant l'estimateur de Parzen arborescent avec une fonction d'acquisition EI19,20. (3) Algo3 utilisant un modèle de processus gaussien21 et une fonction d'acquisition à limite de confiance inférieure. Les algorithmes utilisent tous la distance euclidienne mise à l'échelle comme fonction objectif et ont commencé sans aucune formation et en utilisant des a priori non informatifs22.

Les algorithmes ont été programmés pour utiliser des métriques de sortie mais pas des images de profil de sortie, et celles-ci ont donc été effectivement ignorées. Une seule recette par lot a été utilisée, la valeur par défaut pour les optimisations bayésiennes23. Les trajectoires ont été répétées 100 fois pour la pertinence statistique afin de tenir compte du caractère aléatoire inhérent au coût par rapport à la cible en raison de la nature probabiliste de l'optimisation bayésienne. Pour gagner du temps de calcul, les trajectoires ont été tronquées si elles n'atteignaient pas l'objectif avant la référence experte de 105 000 $. Nous définissons le « taux de réussite » comme le pourcentage de trajectoires avec un coût par rapport à la cible inférieur à celui de l'expert. À titre de référence, le taux de réussite du pur hasard est estimé à moins de 0,2 % (sur la base de la cote de 0,003 % par recette mentionnée précédemment).

Les algorithmes ont commencé chaque trajectoire avec une graine de 32 recettes générée aléatoirement à partir d'un hypercube latin, avant de générer la recette unique par lot. Les résultats sont étiquetés « aucun humain » dans les panneaux de la Fig. 3. Les taux de réussite sont faibles, moins de 1 % pour Algo1, 2 % pour Algo2 et 11 % pour Algo3. Au total, seulement 13 tentatives sur 300 (moins de 5%) ont battu l'expert. Pour référence, nous avons autorisé une trajectoire Algo2 au-delà de la limite de troncature, atteignant finalement l'objectif à 739 000 $, soit près d'un ordre de grandeur plus coûteux que l'expert. Dans l'ensemble, les algorithmes seuls ont échoué - lamentablement - à gagner la compétition contre l'expert humain.

a–c, Résultats pour trois algorithmes : Algo1 (a), Algo2 (b) et Algo3 (c). Les résultats « sans humain » sont sans aucune aide de la part des humains, comme référence. Les colonnes A à E sont les points de transfert représentés sur la figure 2. Chaque point représente l'une des 100 trajectoires indépendantes. Le coût par rapport à la cible est la somme des coûts de l'algorithme humain et informatique ; les lignes orange indiquent le coût médian par rapport à la cible ; les points alignés en haut dépassent le coût par rapport à la cible de l'expert seul (105 000 $) ; les lignes horizontales noires représentent le coût des données fournies par l'humain.

Données source

Nous avons suggéré que les algorithmes échouaient parce qu'ils gaspillaient des expériences à naviguer dans le vaste espace de processus sans aucune connaissance préalable. En revanche, nous avons émis l'hypothèse que les ingénieurs de procédés s'appuyaient sur leur expérience et leur intuition pour prendre de meilleures décisions lors de leur navigation initiale. Par conséquent, nous avons décidé de tester une stratégie hybride, dans laquelle l'expert guide les algorithmes dans un scénario humain premier-ordinateur dernier (HF-CL). Dans cette mise en œuvre, au lieu d'un échantillonnage aléatoire, l'expert fournit des données expérimentales collectées jusqu'à un point de transfert étiqueté de A à E sur la figure 2 (également défini dans le tableau de données étendu 3), ainsi qu'une plage de recherche limitée par l'expert (tableau de données étendu 4). À titre de référence, le taux de réussite pour trouver la cible dans cette plage de recherche « contrainte » est estimé à 13 % sur la base d'une chance de 0,27 % par recette d'atteindre la cible sur 2 700 échantillons aléatoires. Dans la stratégie HF-CL, une fois que l'ordinateur prend en charge la prise de décision, l'expert abandonne effectivement le contrôle et n'a plus de rôle dans la conception expérimentale. Comme précédemment, pour des raisons de pertinence statistique, chaque condition a été répétée 100 fois.

Dans la stratégie HF-CL, le point de transfert A fournit le moins de données de l'expert à l'algorithme informatique. À ce stade, le coût médian par rapport à la cible pour HF-CL est toujours systématiquement supérieur à celui de l'expert seul, avec un taux de réussite de seulement 20 % pour Algo1, 43 % pour Algo2 et 42 % pour Algo3. Bien que ces valeurs soient considérablement plus élevées que les résultats obtenus uniquement par ordinateur, des taux de réussite inférieurs à 50 % indiquent que les coûts sont plus susceptibles d'augmenter que de diminuer. Ainsi, bien que certains conseils initiaux aient amélioré les performances de l'algorithme informatique, HF – CL échoue statistiquement au point A.

La figure 3 montre les résultats HF-CL avec progressivement plus de données fournies à l'algorithme informatique. Nous observons une dépendance en V du coût par rapport à la quantité de données expertes. Des points A à C, l'accès à davantage de données expertes réduit le coût global par rapport à la cible à mesure que les performances de l'algorithme s'améliorent. Cependant, la tendance s'inverse au-delà du point C, auquel l'accès à davantage de données expertes ajoute des coûts sans avantage clair pour l'algorithme. La performance optimale de HF – CL pour tous les algorithmes est au point C. Algo3 surpasse largement les autres algorithmes, attribués soit à la flexibilité des modèles de processus gaussiens, soit à sa fonction d'acquisition différente, car il a été démontré que l'algorithme de limite de confiance inférieure surpasse la fonction EI23. HF-CL avec Algo3 établit une nouvelle référence, avec un coût médian par rapport à l'objectif de 52 000 $, soit un peu moins de la moitié du coût requis par l'expert seul.

Ainsi, la stratégie HF-CL utilisant l'expert en partenariat avec Algo3 a remporté la partie, en réduisant de manière fiable le coût par rapport à la cible de développement du procédé de gravure au plasma par rapport à la référence de l'expert. (Voir Données étendues Fig. 2 et 3 pour les résultats HF-CL avec d'autres humains et Données étendues Fig. 4 pour les résultats HF-CL sans la plage contrainte.)

L'environnement de processus virtuel fournit un moyen de tester différentes approches de développement de processus dans l'industrie des semi-conducteurs, une activité qui aurait été d'un coût prohibitif dans le vrai laboratoire. La performance des humains à différents niveaux de compétence, des experts aux novices, fournit des points de comparaison qualitatifs sur le même processus. Les résultats montrent que les ingénieurs de procédés seniors développent des processus à environ la moitié du coût-cible des ingénieurs de procédés juniors, ce qui indique l'importance de la connaissance du domaine dans notre industrie. Les algorithmes informatiques, dépourvus de toute formation préalable, ont montré des performances médiocres par rapport à l'expert, avec moins de 5% de toutes leurs trajectoires atteignant la cible à un coût inférieur à la cible. Cela confirme notre attente initiale selon laquelle les ordinateurs qui partent de zéro tomberont en panne : ils peuvent atteindre l'objectif, mais à un coût trop élevé. C'est le petit problème de données manifesté. Nous ne pouvons tout simplement pas nous permettre la quantité de données nécessaires à un ordinateur pour prédire avec précision une recette de processus.

Un résultat clé de cette étude est le succès de la stratégie HF-CL. Cette stratégie repose sur un expert ayant l'avantage dès le début du développement du processus et l'algorithme informatique excellant dans la phase ultérieure. En combinant ces avantages, il a été démontré que HF-CL réduisait de moitié le coût par rapport à l'expert seul. L'avantage de l'expert humain est attribué à l'importance de la connaissance du domaine, qui manquait à ces algorithmes, pour naviguer qualitativement dans les possibilités apparemment illimitées de choix de recettes. Il est peut-être intuitif que les conseils humains aident les ordinateurs, mais si les algorithmes sont plus efficaces pour traiter des problèmes complexes massivement volumineux, ils auraient probablement pu dominer au début du développement24. Au lieu de cela, les algorithmes informatiques ne sont devenus compétents qu'après que les données pertinentes ont été fournies et, de préférence, avec une plage restreinte également. Le principe de HF-CL rappelle les premiers efforts sur d'autres problèmes d'IA, suggérant qu'il pourrait être généralisable à d'autres petits problèmes de données. Par exemple, au début des échecs informatiques (avant le big data), le premier programme en 1951 n'était déployé que pour les deux derniers coups, alors que les coups d'ouverture restent largement les mêmes que ceux déterminés par les humains6. Dans le repliement des protéines, la technique d'évolution dirigée du prix Nobel nécessite également un «point de départ approprié» fourni par l'homme25.

Bien que HF-CL puisse sembler évident rétrospectivement, les résultats montrent qu'il ne fonctionne que dans certaines circonstances. Même avec l'avantage de s'associer à un ingénieur expérimenté, le succès de HF-CL dépend aussi fortement du moment où l'humain passe à l'ordinateur : s'il est trop tôt, les algorithmes ne sont pas suffisamment guidés ; s'il est trop tard, l'humain devient un fardeau financier. Ce principe est incarné dans la dépendance coût-cible en forme de V convexe vis-à-vis de données plus expertes dans la Fig. 3. Notre interprétation de la forme en V est que la profondeur représente les économies de coûts maximales par rapport à l'expert, tandis que le sommet représente le point de transfert optimal de l'homme à l'ordinateur. Le côté gauche du V correspond à l'amélioration des performances des algorithmes avec plus de données. Cette partie du V est cohérente avec les observations précédemment rapportées et la notion générale selon laquelle plus de données, c'est mieux10.

La partie la plus inhabituelle et la plus remarquable du V est le côté droit. C'est là que le coût par rapport à la cible augmente alors même que les algorithmes obtiennent l'accès à des données plus expertes. Ici, le coût élevé des données a conduit à une pénalité de coût pour les mauvais choix de recettes par l'homme, illustrant l'importance de la qualité des données. La valeur de l'intuition, même pour notre ingénieur senior expérimenté, a nettement diminué, permettant aux algorithmes informatiques de devenir statistiquement plus compétents dans le choix des recettes. Le chevauchement du régime inversé avec l'étape de réglage fin suggère que cette étape pourrait être mieux reléguée aux algorithmes informatiques. L'observation du phénomène en forme de V pour différentes combinaisons humaines et informatiques renforce notre conviction que nos idées sont généralisables à ce petit problème de données, malgré le nombre relativement faible de cas de test. De plus, nous pensons que le phénomène de courbe en V est une conséquence naturelle de la tentative de minimiser les coûts dans la limite de données coûteuses et de tolérances serrées - comme c'est le cas dans de nombreux processus de fabrication - lorsque le besoin de plus de données entre directement en concurrence avec le coût d'obtention de ces données.

Pour que l'industrie puisse appliquer les leçons de la stratégie HF-CL aux processus réels des semi-conducteurs, il sera essentiel de comprendre comment les connaissances s'appliquent à d'autres processus et quand les humains devraient abandonner le contrôle, à savoir comment identifier le point de transfert idéal à l'avance. Nous avons montré que les économies de coûts dépendent de la combinaison spécifique humain-algorithme (Fig. 3 et Extended Data Figs. 2 et 3). De plus, nous nous attendons à ce que le côté droit du V puisse ne pas être apparent si les cibles étaient relâchées ou, au contraire, pourrait dominer dans les processus qui ne nécessitent qu'un réajustement, comme l'appariement de chambre (ou le transfert d'un processus vers un autre outil). La connaissance humaine peut être particulièrement importante dans un espace d'exploration à haute dimensionnalité, retardant efficacement le transfert vers l'ordinateur. D'autres facteurs susceptibles d'affecter le point de transfert incluent le bruit du processus, la dérive du processus, la tolérance cible, la taille du lot, la plage restreinte et la structure des coûts. Nous avons beaucoup à apprendre. Ces sujets sont de bons candidats pour une étude systématique plus approfondie sur la plate-forme de processus virtuel.

Au-delà des défis techniques, il y aura probablement aussi des défis culturels dans le partenariat entre les humains et les ordinateurs26,27. Dans notre étude, nous avons observé un comportement informatique en contradiction avec la façon dont les ingénieurs de procédés développent habituellement des processus. (1) Les ingénieurs ont utilisé presque exclusivement des changements de paramètres univariés et bivariés pour rationaliser leur conception expérimentale, tandis que les ordinateurs ont utilisé des changements de paramètres multivariés sans aucune explication. Les humains peuvent avoir du mal à accepter des recettes qu'ils ne comprennent pas. (2) Les ingénieurs demandaient en moyenne quatre expériences par lot, alors que les ordinateurs étaient limités à une seule expérience par lot, ce qui est probablement considéré comme inefficace en laboratoire. (3) Les ingénieurs ont régulièrement progressé vers la cible (Fig. 2), tandis que les ordinateurs ont utilisé des stratégies exploratoires de choix de recettes qui semblent sacrificielles (Extended Data Fig. 5). Les mouvements contre-intuitifs et sans émotion sont bien documentés dans le jeu par ordinateur28. En laboratoire, les ingénieurs de procédés devront résister aux interventions et aux augmentations de coûts par inadvertance, sans aucune garantie de succès. En fin de compte, faire confiance aux algorithmes informatiques signifiera changer des décennies d'attentes culturelles en matière d'ingénierie des procédés. Nous espérons que l'environnement virtuel aidera les ingénieurs de procédés à mieux comprendre comment s'associer aux ordinateurs pour développer des technologies de procédés.

L'application de l'IA au génie des procédés en est encore à ses balbutiements. L'expertise humaine restera essentielle dans un avenir prévisible, car la connaissance du domaine reste indispensable pour naviguer dans les premières étapes du développement des processus. Pourtant, le succès de la stratégie HF-CL nous montre que les humains, comme dans les applications d'automatisation précédentes, seront bientôt soulagés des aspects fastidieux du développement de processus. À l'avenir, la capacité des algorithmes informatiques pourrait être améliorée en codant la connaissance du domaine dans les algorithmes (explicitement ou indirectement) pour permettre des points de transfert antérieurs. Il existe une abondante littérature sur l'apprentissage par transfert de domaine, dans laquelle des données provenant de domaines similaires mais non identiques peuvent être exploitées pour accélérer l'apprentissage dans de nouveaux domaines29. Un autre domaine d'intérêt dans le domaine de l'IA est l'impression des connaissances du domaine sous la forme d'une croyance antérieure23,30. En effet, la création ou l'apprentissage d'un bon a priori pourrait être considéré comme une concurrence à la stratégie HF-CL étudiée ici. D'autres approches potentielles dans la littérature incluent l'incorporation de modèles physiques mécanistes10. Dans tous les cas, les relations hautement non linéaires et complexes entre les paramètres d'entrée et de sortie signifient que davantage de données seront nécessaires pour mettre à jour tout modèle précédent à proximité de la cible, dans lequel les interactions d'ordre supérieur deviennent importantes. Le besoin perpétuel de plus de données dans des régimes d'intérêt spécifiques garantit pratiquement que l'ingénierie des procédés continuera d'être sensible au petit problème de données, même avec l'aide d'algorithmes informatiques.

En résumé, bien que les algorithmes informatiques puissent à eux seuls développer un processus de manière indépendante en utilisant de grandes quantités de données, ils n'ont pas réussi à le faire à un coût pour la cible inférieur à celui de la référence humaine. Ce n'est que lorsqu'ils sont associés à un expert pour guider vers un régime prometteur que les algorithmes peuvent réussir. Les résultats de cette étude indiquent une voie pour réduire considérablement le coût par rapport à la cible en combinant les avantages humains et informatiques. Cette approche non conventionnelle de l'ingénierie des procédés nécessitera des changements dans le comportement humain pour réaliser ses avantages. Les résultats de cette étude renforcent notre confiance dans le fait que nous sommes sur la voie d'un changement marqué de la manière dont les processus sont développés pour les puces à semi-conducteurs. Ce faisant, nous accélérerons un lien critique dans l'écosystème des semi-conducteurs, en utilisant la puissance de calcul même que ces processus de semi-conducteurs permettent. En effet, l'IA aidera à se créer elle-même, comme le célèbre graphique circulaire de MC Escher représentant deux mains se dessinant.

La plate-forme de test représente un engagement typique dans notre industrie dans laquelle les paramètres d'entrée sont choisis pour répondre aux spécifications cibles fournies par le fabricant de semi-conducteurs pour des critères de performance rigoureux. Les paramètres et plages d'outils simulés (valeurs « sans contrainte » dans le tableau de données étendu 4) sont basés sur un réacteur générique de gravure au plasma à double fréquence31. Les métriques de sortie sont obtenues à partir du profil simulé.

Pour chaque recette choisie, les participants reçoivent six mesures de sortie ainsi qu'un profil de trou SiO2 simulé. Pour les métriques de sortie, CD désigne la « dimension critique ». Le CD supérieur est mesuré au sommet du trou SiO2, tandis que ΔCD (CD supérieur - CD inférieur) est calculé en soustrayant la largeur à 90 % de la profondeur de gravure (« bas ») du CD supérieur. Bow CD est synonyme de la largeur maximale de la fonctionnalité. La hauteur du masque fait référence à la hauteur du masque photorésistant conçu pour protéger le matériau sous-jacent de la gravure. La hauteur initiale du masque photorésistant est de 750 nm et le CD initial a un diamètre de 200 nm.

Il convient de noter que le temps de traitement n'est pas un paramètre d'entrée car nous simulons un détecteur de profondeur de gravure pour arrêter automatiquement la gravure à la profondeur souhaitée. Pour gagner du temps de calcul, la simulation est arrêtée si trop de polymère se dépose dessus, si les CD deviennent trop larges ou si la vitesse de gravure est trop lente. Le taux de gravure est calculé à partir de la profondeur de post-gravure divisée par le temps (virtuel) jusqu'au point final.

Les paramètres d'entrée contrôlent la création de plasma dans la chambre au-dessus de la tranche de semi-conducteur. L'allumage au plasma transforme les gaz neutres entrants en un mélange complexe d'ions, d'électrons et de radicaux réactifs qui empiètent sur la tranche. La chimie du procédé et les paramètres d'entrée utilisés sont typiques pour la gravure au plasma de SiO2 (réf. 32). Les puissances radiofréquences allument le plasma et modulent les fonctions d'énergie ionique et de distribution angulaire. Les gaz fluorocarbonés (C4F8, C4F6 et CH3F) contrôlent la gravure du SiO2 en équilibrant la formation de composés volatils, tels que SiF4, CO et CO2, et le dépôt d'une couche de passivation de type Téflon pour protéger le masque et les parois latérales33. Les paramètres de flux de fluorocarbures et d'O2 fournissent d'autres moyens d'augmenter ou de diminuer la passivation du carbone, respectivement. Le profil gravé est produit à partir de l'évolution temporelle des flux d'ions et de radicaux interagissant avec les matériaux à la surface de la tranche et en calculant l'évolution du front de gravure dans le temps.

Nous utilisons un simulateur de profil de fonctionnalité propriétaire, une version considérablement augmentée du simulateur de processus commercial SEMulator3D de Coventor34. La version que nous utilisons modélise les processus physiques et chimiques détaillés se produisant pendant la gravure, en utilisant des paramètres de plasma et de matériaux tels que le rendement ionique, le flux ionique et les coefficients d'adhérence réactive. Nous transformons les 11 paramètres d'entrée en une dizaine de paramètres plasma et matériau pour le simulateur de profil. Dans la mesure du possible, nous utilisons des principes établis, dérivés de la théorie cinétique des gaz et de l'équation d'Arrhenius, pour transformer les paramètres d'entrée tels que les pressions et les températures des plaquettes en flux et vitesses de réaction. Lorsqu'elles sont disponibles, nous utilisons des relations empiriques tirées de la littérature35,36,37 ainsi que des mesures diagnostiques exclusives.

SEMulator3D utilise une variété de méthodes de calcul, y compris des opérations de voxels discrets et des méthodes de jeu de niveaux statiques et transitoires38. Le modèle central de cette publication utilise une méthode de jeu de niveaux transitoires avec un modèle propriétaire de physique des plasmas haute fidélité basé sur le flux. Dans la méthode level-set, il n'y a pas de représentation explicite des points sur la surface. Au lieu de cela, la distance à la surface est stockée sous la forme d'un champ de distance basé sur le volume autour de la structure plutôt que sur la surface. Une équation différentielle partielle est ensuite résolue dans le volume pour propager le champ de distance dans le temps, en utilisant la vitesse r = r (x, t) (qui représente la vitesse de gravure, de pulvérisation et de dépôt) du mouvement de surface, convenablement étendu pour être une quantité volumique. Le coût principal du calcul de r(x, t) à tout instant est le calcul des flux de particules vers chaque point de la surface du profil. Ces flux diffèrent de ceux fournis par le modèle plasma en raison à la fois de l'ombrage à l'intérieur d'un élément profond et de la réflexion des particules après collision avec d'autres points de la surface. En particulier, le flux en un point x est calculé comme une intégrale sur la surface de la partie de la densité de particules f(x, v) frappant la surface, où v est la vitesse39. La méthodologie de jeu de niveau basée sur le flux contraste avec une méthode de pseudoparticule, qui suit une pseudoparticule tout au long de sa durée de vie depuis le plasma jusqu'à ce qu'elle réagisse et modifie le contenu chimique d'une cellule de maillage dans le modèle40.

Pour calculer les profils simulés dans cette publication, l'intégrale de flux a été estimée numériquement pour calculer les vitesses r = r(x, t), qui ont ensuite été utilisées dans le schéma aux différences finies pour résoudre l'équation aux dérivées partielles level-set38. Pour gagner du temps de calcul, nous avons choisi une grande discrétisation spatiale de 25 nm, ce qui conduit à une variabilité observée de ± 2 nm sur une course typique. Chaque simulation prend moins de dix minutes en utilisant 16 cœurs d'unités centrales de traitement et 32 ​​Go de RAM.

La plate-forme de test de processus a été validée et ajustée de manière itérative jusqu'à ce qu'elle reproduise qualitativement les données de recette expérimentales à partir d'applications de contact à rapport d'aspect élevé. Une analyse de sensibilité a été utilisée pour étudier les écarts avec chaque paramètre d'entrée afin de s'assurer que le modèle correspond aux tendances connues.

Le programme interne de la plate-forme de test de processus n'a pas été divulgué aux humains chargés de résoudre le défi du processus ni aux scientifiques des données développant des algorithmes d'optimisation de l'IA. Cela a été fait pour éviter tout biais de résultat possible ou ingénierie inverse de notre plate-forme.

Le Progress Tracker est notre indicateur de performance pour surveiller à quel point un processus est proche de la cible. Pour clarifier, cet indicateur ne sert qu'à illustrer les progrès ; il n'a été montré à aucun participant ni utilisé par aucun algorithme informatique. En pratique, les ingénieurs de procédés surveillent la progression vers la cible à l'aide d'une «table de contrôle» dans laquelle les sorties de processus, telles que le taux de gravure, sont codées par couleur selon qu'elles ont atteint la cible, étaient proches de la cible ou n'ont pas atteint la cible. Il n'y a pas d'indicateur de performance standard à valeur unique pour représenter l'ensemble de ce tableau, nous avons donc conçu le Progress Tracker à cet effet. Notre Progress Tracker a des valeurs de 0 à 1 selon que le processus répond aux spécifications (0), échoue (1) ou se situe quelque part entre (0–1). Nous classons l'arrêt de gravure et la consommation de masque comme des échecs (1).

Pour calculer le Progress Tracker, nous prenons la moyenne de six scores parmi les six métriques de sortie, normalisées à 1, en utilisant les définitions du tableau de données étendu 1. Chaque métrique de sortie se voit attribuer un score de 0 si elle respecte les valeurs cibles. (Toutes les valeurs doivent avoir un score de 0 pour que le processus atteigne la cible.) Une métrique de sortie se voit attribuer un score de 1 si elle est loin de la cible. Pour les métriques de sortie proches de la cible, le score a été diminué de manière linéaire de 1 à 0. Le Progress Tracker donne un score de 1 si le processus échoue en raison d'un arrêt de gravure (profondeur de gravure inférieure à 2 000 nm) ou s'il ne reste aucun masque ("masque restant" égal à 0). Une fois que les valeurs du Progress Tracker sont calculées pour chaque expérience, le Progress Tracker est ensuite tracé comme le meilleur score par lot avec une fenêtre glissante de quatre lots sur la Fig. 2 et les données étendues sur la Fig. 1 et un lot sur les données étendues sur la Fig. 5.

Données sources pour les Fig. 2 et 3 sont fournis avec le papier. D'autres données à l'appui des conclusions de cette étude sont disponibles auprès de l'auteur correspondant sur demande raisonnable.

La démonstration du logiciel de simulation utilisé dans cette étude, qui fonctionne sur une plate-forme interne, est disponible auprès de l'auteur correspondant sur demande raisonnable.

IEEE. Feuille de route internationale pour les appareils et les systèmes, édition 2020 (IEEE, 2020).

Graves, DB Traitement plasma. IEEE Trans. Plasma Sci. 22, 31-42 (1994).

Article ADS CAS Google Scholar

Kanarik, KJ Dans le monde mystérieux du plasma : le point de vue d'un ingénieur de procédés. J.Vac. Sci. Technol. A 38, 031004 (2020).

Article CAS Google Scholar

Kurzweil, R. La singularité est proche : lorsque les humains transcendent la biologie (Viking, 2005).

Tegmark, M. Life 3.0 : Être humain à l'ère de l'intelligence artificielle (Penguin, 2018).

Hsu, F.-H. Derrière Deep Blue: Construire l'ordinateur qui a vaincu le champion du monde d'échecs (Princeton Univ. Press, 2002).

Silver, D. et al. Maîtriser le jeu de Go sans connaissance humaine. Nature 550, 354–359 (2017).

Article ADS CAS PubMed Google Scholar

Samukawa, S. et al. La feuille de route plasma 2012. J.Phys. D 45, 253001 (2012).

Annonces d'article Google Scholar

Winters, HF, Coburn, JW & Kay, E. Gravure au plasma d'une approche "pseudo-boîte noire". J. Appl. Phys. 48, 4973-4983 (1977).

Article ADS CAS Google Scholar

Zhang, Y. & Ling, C. Une stratégie pour appliquer l'apprentissage automatique à de petits ensembles de données en science des matériaux. Calcul NPJ. Mater. 4, 28–33 (2018).

Annonces d'article Google Scholar

Kim, K. et al. Extension des technologies de mémoire DRAM et FLASH à 10 nm et au-delà. Proc. SPIE 8326, 832605 (2012).

Article Google Scholar

Greenhill, S., Rana, S., Gupta, S., Vellanki, P. & Venkatesh, S. Optimisation bayésienne pour la conception expérimentale adaptative : une revue. Accès IEEE 8, 13937–13948 (2020).

Article Google Scholar

Shao, K., Pei, X., Grave, DB et Mesbah, A. Exploration active guidée par l'apprentissage de l'espace des paramètres des plasmas d'air pour améliorer l'efficacité énergétique de la production de NOx. Sources de plasma Sci. Technol. 31, 055018 (2022).

Annonces d'article Google Scholar

Shahriari, B., Swersky, K., Wang, Z., Adams, RP et De Freitas, N. Sortir l'humain de la boucle : un examen de l'optimisation bayésienne. Proc. IEEE 104, 148–175 (2016).

Article Google Scholar

Lang, CI, Jansen, A., Didari, S., Kothnur, P. & Boning, DS Modélisation et optimisation de l'impact des paramètres de processus et d'équipement dans les systèmes de dépôt par pulvérisation à l'aide d'un cadre d'apprentissage automatique de processus gaussien. IEEE Trans. Semicond. Fab. 35, 229-240 (2021).

Article Google Scholar

Chen, Z., Mak, S. & Wu, CFJ Une méthode hiérarchique d'amélioration attendue pour l'optimisation bayésienne. Préimpression sur https://doi.org/10.48550/arxiv.1911.07285 (2019).

Guler, S., Schoukens, M., Perez, TD et Husakowski, J. Optimisation bayésienne pour le réglage des processus de lithographie. IFAC-PapersOnLine 54, 827–832 (2021).

Article Google Scholar

Foreman-Mackey, D., Hogg, DW, Lang, D. & Goodman, J. maître de cérémonie : le marteau MCMC. Publ. Astre. Soc. Pac. 125, 306 (2013).

Annonces d'article Google Scholar

Akiba, T., Sano, S., Yanase, T., Ohta, T. & Koyama, M. dans Proc. 25e Conférence internationale ACM SIGKDD sur la découverte des connaissances et l'exploration de données 2623–2631 (ACM, 2019).

Bergstra, J., Bardenet, R., Bengio, Y. & Kégl, B. dans Proc. 24e Conférence internationale sur les systèmes de traitement de l'information neuronale (Curran Associates, 2011).

Rasmussen, CE et Williams, CKI Processus gaussiens pour l'apprentissage automatique (MIT Press, 2006).

Fortuin, V. Prieurs dans l'apprentissage profond bayésien : une revue. Int. Statistique Rév.90, 563–591 (2022).

Article MathSciNet Google Scholar

Liang, Q. et al. Analyse comparative des performances de l'optimisation bayésienne dans plusieurs domaines expérimentaux de la science des matériaux. Calcul NPJ. Mater. 7, 188 (2021).

Annonces d'article Google Scholar

Silver, N. Le signal et le bruit : pourquoi tant de prédictions échouent, mais certaines échouent (Penguin, 2012).

Miller, les lauréats du prix Nobel de chimie JL ont exploité l'évolution pour enseigner de nouvelles astuces aux anciennes protéines. Phys. Aujourd'hui 71, 22-25 (2018).

Article ADS CAS Google Scholar

Dietvorst, BJ, Simmons, JP & Massey, C. Aversion aux algorithmes : les gens évitent à tort les algorithmes après les avoir vus se tromper. J. Exp. Psychol. Gen. 144, 114-126 (2015).

Article PubMed Google Scholar

Dafoe, A. et al. IA coopérative : les machines doivent apprendre à trouver un terrain d'entente. Nature 593, 33-36 (2021).

Article ADS CAS PubMed Google Scholar

AlphaGo contre Lee Sedol. Wikipédia https://en.wikipedia.org/wiki/AlphaGo_versus_Lee_Sedol (2021).

Pan, SJ & Yang, Q. Une enquête sur l'apprentissage par transfert. IEEE Trans. Savoir. Data Eng. 22, 1345-1359 (2010).

Article Google Scholar

Ziatdinov, MA, Ghosh, A. & Kalinin, SV La physique fait la différence : optimisation bayésienne et apprentissage actif via un processus gaussien augmenté. Mach. Apprendre. Sci. Technol. 3, 015003 (2022).

Annonces d'article Google Scholar

Donnelly, VM & Kornblit, A. Gravure au plasma : hier, aujourd'hui et demain. J.Vac. Sci. Technol. A 31, 050825 (2013).

Article Google Scholar

Huang, S. et al. Gravure au plasma de caractéristiques à rapport d'aspect élevé dans SiO2 à l'aide de mélanges Ar/C4F8/O2 : une étude informatique. J.Vac. Sci. Technol. A 37, 031304 (2019).

Article Google Scholar

Zheng, L., Ling, L., Hua, X., Oehrlein, GS et Hudson, EA Études du dépôt de film dans des plasmas de fluorocarbone utilisant une structure à petits intervalles. J.Vac. Sci. Technol. A 23, 634–642 (2005).

Article CAS Google Scholar

Coventor, Inc. Plate-forme logicielle de fabrication virtuelle SEMulator3D. http://www.coventor.com.

Steinbrüchel, C. Dépendance énergétique universelle des rendements de gravure chimique physiques et ioniques à faible énergie ionique. Appl. Phys. Lett. 55, 1960-1962 (1989).

Annonces d'article Google Scholar

Knoll, AJ, Pranda, A., Lee, H. & Oehrlein, GS Effet de la température du substrat sur le comportement de migration des précurseurs de film de fluorocarbone dans les structures à rapport d'aspect élevé. J.Vac. Sci. Technol. B 37, 031802 (2019).

Article Google Scholar

Nelson, CT, Sant, SP, Overzet, LJ & Goeckner, MJ Cinétique de surface avec bombardement à faible énergie ionique dans les plasmas fluorocarbonés. Sources de plasma Sci. Technol. 16, 813–821 (2007).

Article ADS CAS Google Scholar

Sethian, JA Level Set Methods and Fast Marching Methods: Interfaces en évolution dans la géométrie computationnelle, la mécanique des fluides, la vision par ordinateur et la science des matériaux (Cambridge Univ. Press, 1999).

Hamaguchi, S. & Dalvie, M. Simulations de microprofils pour la gravure au plasma avec passivation de surface. J.Vac. Sci. Technol. A 12, 2745-2753 (1994).

Article CAS Google Scholar

Hoekstra, RJ, Grapperhaus, MJ & Kushner, MJ Modèle d'équipement à plasma intégré pour les profils de gravure de polysilicium dans un réacteur à plasma à couplage inductif avec topographie subwafer et superwafer. J.Vac. Sci. Technol. A 15, 1913–1921 (1997).

Article CAS Google Scholar

Télécharger les références

Nous remercions CJ Spanos de l'UC Berkeley pour ses conversations et commentaires utiles sur le manuscrit et nos collègues Lam A. Faucett, A. Chowdhury, Y. Miao, Z. Blum, Q. Kong, L.-C. Cheng, R. Le Picard, E. Hudson, A. Marakhtanov et B. Batch pour leur aide dans le processus virtuel. Nous remercions S. Grantham et D. Belanger pour les graphiques.

Lam Research Corporation, Fremont, Californie, États-Unis

Keren J. Kanarik, Wojciech T. Osowiecki, Yu (Joe) Lu, Dipongkar Speaker, Niklas Roschewsky, Sae Na Park, Mattan Kamon, David M. Fried et Richard A. Gottscho

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

KJK a conçu et conçu l'étude avec RAG, rédigé l'article avec RAG et construit le processus virtuel avec l'OMC. L'OMC a construit le processus virtuel avec KJK et a écrit une partie des Méthodes. YL a dirigé l'effort de science des données, créé un logiciel pour acquérir des données pour les algorithmes et analysé et interprété les données. DT a créé un logiciel API qui automatise la participation à l'algorithme. NR a conçu l'utilisation d'Algo2, exécuté les résultats préliminaires et aidé à interpréter les données. SNP a construit et exécuté Algo3. MK a aidé à augmenter le logiciel de simulation et a écrit une partie des méthodes. DMF a supervisé la collecte des données et aidé à l'interprétation. RAG a conçu l'utilisation d'un environnement virtuel pour l'étude et a coécrit l'article avec KJK

Correspondance à Richard A. Gottscho.

Les auteurs ne déclarent aucun intérêt concurrent.

Nature remercie Duane Boning et Ying-Lang Wang pour leur contribution à l'examen par les pairs de ce travail. Les rapports des pairs examinateurs sont disponibles.

Note de l'éditeur Springer Nature reste neutre en ce qui concerne les revendications juridictionnelles dans les cartes publiées et les affiliations institutionnelles.

L'objectif est atteint lorsque le Progress Tracker est 0. Aucun des participants inexpérimentés n'a réussi à atteindre l'objectif. Notez que le coût cumulé sur l'axe des x est tronqué à 200 000 USD.

La ligne bleue est la trajectoire de l'ingénieur junior n°3 seul, avec un coût par rapport à l'objectif de 190 000 $. La ligne orange sur l'axe secondaire est le coût médian de HF-CL (en utilisant Algo3) aux points de transfert indiqués (Extended Data Table 3). La dépendance en forme de V du coût à l'objectif est apparente. HF–CL permet des économies de coûts impressionnantes au point B′ par rapport à l'ingénieur junior seul. Cependant, le coût par rapport à la cible est toujours nettement plus élevé (environ le double) que HF-CL en utilisant la combinaison expert-Algo 3.

Résultats pour différents humains associés à Algo3 dans la stratégie HF-CL. Voir le tableau de données étendu 2 pour la notation. (Notez que SE1 est le point C sur la Fig. 3c et JE3 est le point C′ sur la Fig. 2 des données étendues.) Chaque humain a transféré l'équivalent de 40 000 $ de données (ou le lot complet le plus proche ; voir le tableau de données étendu 5) avec une plage de recherche restreinte (tableau de données étendu 4) à l'ordinateur. Comme In1 n'avait pas assez d'expérience pour limiter la plage, un paramètre de plage adaptatif recherchant 10 % au-delà de la distribution des données a été utilisé. Chaque point représente l'une des 100 trajectoires indépendantes. Le coût par rapport à la cible est la somme des coûts humains et informatiques ; les lignes oranges représentent le coût médian par rapport à la cible ; les lignes horizontales noires indiquent le coût transféré de l'humain. Les coûts les plus bas sont obtenus avec les niveaux d'expérience les plus élevés. Dans l'ensemble, les résultats confirment que la stratégie HF-CL est plus efficace pour réduire les coûts lorsqu'elle est associée à des humains plus expérimentés.

Cette figure montre les résultats pour HF-CL en utilisant l'expert et Algo3. La première colonne est le point C de la figure 3c, dans laquelle Algo3 est fourni à la fois avec 32 points de données expertes et la plage contrainte. Dans la deuxième colonne, Algo3 ne contient que les données expertes mais pas la plage contrainte (au lieu d'utiliser un paramètre de plage adaptative recherchant 10 % au-delà de la distribution des données). Dans la troisième colonne, Algo3 est fourni avec la plage contrainte mais aucune donnée de l'expert, utilisant à la place 100 graines d'échantillonnage aléatoire différentes d'hypercube latin (LHC) à 32 points. Dans la quatrième colonne, Algo3 est fourni sans aucune information de l'humain. Les flèches noires indiquent le pourcentage d'économies de coûts par rapport à l'expert seul, avec une flèche en pointillé dans la troisième colonne car nous n'avons pas facturé l'accès à la contrainte. Chaque point représente l'une des 100 trajectoires indépendantes. Les performances d'Algo3 avec à la fois la plage contrainte experte et les données humaines suggèrent que l'ingénieur, si possible, devrait fournir à la fois les données et la plage contrainte lors de la mise en œuvre de HF-CL.

L'objectif est atteint lorsque le Progress Tracker est à 0. La trajectoire de l'expert (SE1) est représentée en gris, avec transfert vers l'ordinateur au point C. La ligne bleue est la trajectoire de l'algorithme ; la ligne grise pointillée est la continuation de la trajectoire pour l'expert uniquement. L'algorithme est Algo1 dans les panneaux a–c, Algo2 dans les panneaux d–f et Algo3 dans les panneaux g–i.

Libre accès Cet article est sous licence Creative Commons Attribution 4.0 International, qui autorise l'utilisation, le partage, l'adaptation, la distribution et la reproduction sur tout support ou format, à condition que vous accordiez le crédit approprié à l'auteur ou aux auteurs originaux et à la source, fournissez un lien vers la licence Creative Commons et indiquez si des modifications ont été apportées. Les images ou tout autre matériel de tiers dans cet article sont inclus dans la licence Creative Commons de l'article, sauf indication contraire dans une ligne de crédit au matériel. Si le matériel n'est pas inclus dans la licence Creative Commons de l'article et que votre utilisation prévue n'est pas autorisée par la réglementation légale ou dépasse l'utilisation autorisée, vous devrez obtenir l'autorisation directement du détenteur des droits d'auteur. Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by/4.0/.

Réimpressions et autorisations

Kanarik, KJ, Osowiecki, WT, Lu, Y.(. Et al. Collaboration homme-machine pour améliorer le développement des processus de semi-conducteurs. Nature 616, 707–711 (2023). https://doi.org/10.1038/s41586-023-05773-7

Télécharger la citation

Reçu : 12 janvier 2022

Accepté : 31 janvier 2023

Publié: 08 mars 2023

Date d'émission : 27 avril 2023

DOI : https://doi.org/10.1038/s41586-023-05773-7

Toute personne avec qui vous partagez le lien suivant pourra lire ce contenu :

Désolé, aucun lien partageable n'est actuellement disponible pour cet article.

Fourni par l'initiative de partage de contenu Springer Nature SharedIt

En soumettant un commentaire, vous acceptez de respecter nos conditions d'utilisation et nos directives communautaires. Si vous trouvez quelque chose d'abusif ou qui ne respecte pas nos conditions ou directives, veuillez le signaler comme inapproprié.

PARTAGER