banner

Blog

Nov 10, 2023

Modèles statistiques versus machine learning pour les risques concurrents : développement et validation de modèles de pronostic

BMC Medical Research Methodology volume 23, Article number: 51 (2023) Citer cet article

1353 accès

9 Altmétrique

Détails des métriques

Dans le domaine de la recherche en santé, plusieurs maladies chroniques sont susceptibles de présenter des risques concurrents (RC). Initialement, des modèles statistiques (MS) ont été développés pour estimer l'incidence cumulée d'un événement en présence de RC. Comme il y a récemment un intérêt croissant pour l'application de l'apprentissage automatique (ML) pour la prédiction clinique, ces techniques ont également été étendues aux RC modèles, mais la littérature est limitée. Ici, notre objectif est d'étudier le rôle potentiel de ML par rapport à SM pour les CR dans des données non complexes (taille d'échantillon petite/moyenne, cadre de faible dimension).

Un ensemble de données avec 3826 patients atteints de sarcome des tissus mous des extrémités (eSTS) et neuf prédicteurs collectés rétrospectivement est utilisé pour évaluer les performances prédictives du modèle en termes de discrimination et d'étalonnage. Deux techniques SM (cause-specific Cox, Fine-Gray) et trois techniques ML sont comparées pour les RC dans un cadre clinique simple. Les modèles ML incluent un réseau neuronal artificiel logistique partiel original pour les CR (PLANNCR original), un PLANNCR avec de nouvelles spécifications en termes d'architecture (PLANNCR étendu) et une forêt de survie aléatoire pour les CR (RSFCR). Le critère clinique est le temps en années entre la chirurgie et la progression de la maladie (événement d'intérêt) ou le décès (événement concurrent). Les points temporels d'intérêt sont 2, 5 et 10 ans.

Sur la base des données eSTS d'origine, 100 ensembles de données de formation bootstrap sont dessinés. Les performances des modèles finaux sont évaluées sur des données de validation (échantillons omis) en utilisant comme mesures le score Brier et l'aire sous la courbe (AUC) avec les CR. Le défaut d'étalonnage (erreur de précision absolue) est également estimé. Les résultats montrent que les modèles ML sont capables d'atteindre une performance comparable par rapport au SM à 2, 5 et 10 ans concernant à la fois le score de Brier et l'AUC (intervalles de confiance à 95 % se chevauchant). Cependant, les SM sont souvent mieux calibrés.

Dans l'ensemble, les techniques ML sont moins pratiques car elles nécessitent un temps de mise en œuvre important (prétraitement des données, réglage des hyperparamètres, intensité de calcul), tandis que les méthodes de régression peuvent bien fonctionner sans la charge de travail supplémentaire de la formation du modèle. Ainsi, pour les données de survie réelles non complexes, ces techniques ne doivent être appliquées qu'en complément du SM en tant qu'outils exploratoires de la performance du modèle. Il est urgent d'accorder plus d'attention à l'étalonnage des modèles.

Rapports d'examen par les pairs

L'analyse de survie (également appelée analyse du temps jusqu'à l'événement) est utilisée pour estimer la durée de vie d'une population particulière à l'étude. Souvent, les données de survie sont censurées à droite ; le temps jusqu'à l'événement n'est pas observé pour tous les patients en raison de l'interruption du suivi avant de subir l'événement d'intérêt ou des limites de temps (fin de l'étude). Les risques concurrents (RC) surviennent fréquemment dans les applications cliniques des données de survie [1,2,3,4]. Dans ce type de données, un individu peut échouer à cause de plusieurs causes. Une RC est un événement dont la survenue exclut la survenue d'un événement d'intérêt (par exemple, le décès peut empêcher la survenue d'une rechute de la maladie) [5, 6]. Dans la recherche en santé, il est peu probable que les CR soient indépendants, car la biologie suggère au moins une certaine dépendance entre les événements. Dans plusieurs maladies chroniques attribuables au vieillissement et à la fragilité telles que le cancer, l'insuffisance cardiaque chronique ou la démence, les populations étudiées sont sensibles aux RC [7].

L'approche non paramétrique la plus populaire pour estimer la survie en présence de données temporelles censurées à droite est la méthodologie de Kaplan-Meier (KM) [8]. Cependant, en présence de RC, cette méthodologie surestime la probabilité d'échec pouvant conduire à un sur-traitement des patients [1, 5, 9]. Différents modèles statistiques (MS) ont été développés pour estimer l'incidence cumulée (risque absolu) d'un événement en présence de RC tels que le modèle de Cox spécifique à la cause [10] et le modèle de régression des risques de sous-distribution Fine-Gray [11]. Le premier est une extension naturelle du modèle de Cox à risques proportionnels standard pour le paramètre CR où un modèle de Cox est appliqué pour chaque danger spécifique à une cause. Ce dernier modélise l'effet des covariables directement sur la fonction d'incidence cumulée (CIF) au fil du temps en rapportant le rapport de risque de sous-distribution [9].

De nos jours, il existe un intérêt croissant pour l'application de l'apprentissage automatique (ML) pour la prédiction (diagnostic ou pronostic) des résultats cliniques [12, 13], ce qui a suscité un débat concernant la valeur ajoutée des techniques ML par rapport au SM dans le domaine médical. Les critiques sont attribuées aux modèles de prédiction ML. Bien qu'aucune hypothèse sur la structure des données ne soit faite et qu'elles soient capables d'incorporer naturellement des interactions entre les caractéristiques prédictives, elles sont sujettes à un surajustement des données d'apprentissage et elles manquent d'une évaluation approfondie de la précision prédictive (c'est-à-dire l'absence de courbes d'étalonnage) [14, 15]. D'autre part, les méthodes de régression traditionnelles sont considérées comme simples à utiliser et plus difficiles à surajuster. Cela étant dit, ils font certaines hypothèses (généralement fortes) telles que les risques proportionnels au fil du temps pour le modèle de Cox, et nécessitent une pré-spécification manuelle des termes d'interaction.

Parmi les techniques de ML, les réseaux de neurones artificiels ont été un choix courant dans le domaine de la santé. Cette tendance est pertinente avec la collecte d'informations importantes et complexes sur les patients dans les dossiers de santé électroniques et l'augmentation de la puissance de calcul [16]. Au fil des ans, des réseaux de neurones et d'autres techniques de ML ont été développés pour les données de survie. Wang et al. en 2019 fournissent une étude complète des approches conventionnelles et modernes pour les données de temps d'événement censurées à droite [17]. Les auteurs décrivent plusieurs techniques de ML et suggèrent que les réseaux de neurones sont bien adaptés pour prédire la survie et estimer le risque de maladie.

A common approach in the literature is the partial logistic artificial neural network (PLANN) of Biganzoli et al. (1998) [3.0.CO;2-D ." href="/articles/10.1186/s12874-023-01866-z#ref-CR18" id="ref-link-section-d54317150e784"> 18]. Aux fins de la mise en œuvre, le temps est spécifié dans des intervalles de temps discrets sans chevauchement qui sont ajoutés en tant que caractéristique d'entrée dans un réseau d'anticipation transformé longitudinalement avec activation logistique et fonction d'erreur d'entropie. La couche de sortie estime les risques discrets lissés pour chaque intervalle de temps. PLANN a été étendu par Lisboa et al. (2003) dans un cadre de régularisation bayésien qui effectue une détermination automatique de la pertinence (PLANN-ARD) [19]. Récemment, Kantidakis et al. en 2020, des extensions proposées de PLANN en termes d'architecture, c'est-à-dire de nouveaux hyperparamètres, de nouvelles fonctions d'activation et une spécification d'intervalle de temps en tant que fonctionnalités d'entrée multiples [20]. Outre les réseaux de neurones de survie (SNN), une autre technique ML bien connue pour la prédiction clinique des données de survie est la forêt de survie aléatoire (RSF, Ishwaran et al. 2008) [21]. RSF adapte la méthode de forêt aléatoire de Breiman en utilisant une collection d'arbres de survie [22].

Des approches de ML ont également été utilisées pour les CR, mais la littérature est limitée. L'approche PLANNCR a été développée par Biganzoli et al. en 2006 pour la modélisation conjointe des aléas discrets à cause spécifique [23]. Cela étend PLANN en utilisant le temps (dans des intervalles de temps discrets) comme caractéristique d'entrée dans un réseau transformé longitudinalement avec une fonction d'erreur multinomiale et des fonctions d'activation logistique - softmax pour la couche cachée et la couche de sortie (nœuds de sortie multiples), respectivement. Plus tard, Lisboa et al. (2009) ont implémenté PLANNCR dans un cadre de régularisation bayésien (PLANNCR-ARD) [24]. Ishwaran et al. RSF étendu pour les CR (RSFCR) en 2014 pour estimer le CIF des événements concurrents [25].

Pour ce travail, un ensemble de données avec une taille d'échantillon petite/moyenne et un nombre limité de caractéristiques prédictives (paramètre de faible dimension) est analysé. Il s'agit d'une cohorte rétrospective de 3826 patients atteints de sarcomes des tissus mous des membres (eSTS) de haut grade traités chirurgicalement à visée curative. Neuf facteurs pronostiques sont utilisés pour développer et valider plusieurs modèles de prédiction clinique avec des CR pour les techniques ML et SM. Le critère d'évaluation clinique de l'étude est défini comme le temps en années entre la chirurgie et la progression de la maladie (sous forme de récidive locale ou de métastase à distance ; événement d'intérêt) de l'eSTS, où le décès est un événement concurrent. Les points temporels d'intérêt sont 2, 5 et 10 ans (l'horizon de 5 ans est d'un intérêt clinique majeur). Les analyses ont été réalisées dans le langage de programmation R version 4.1.2 [26].

Les objectifs de ce manuscrit peuvent être résumés comme suit : (i) examen des extensions de la méthode PLANNCR (PLANNCR étendu) pour le développement et la validation de modèles de prédiction clinique pronostique avec des événements concurrents, (ii) évaluation systématique des performances prédictives du modèle pour les techniques ML (PLANNCR original, PLANNCR étendu, RSFCR) et SM (cause-specific Cox, Fine-Gray) concernant la discrimination et l'étalonnage, (iii) enquête sur le rôle potentiel du ML par rapport aux méthodes de régression conventionnelles pour les Données eSTS (taille d'échantillon petite/moyenne, cadre dimensionnel faible), (iv) utilité pratique des méthodes de prédiction.

L'article est organisé de la manière suivante. Dans la section "Méthodes", les données eSTS sont présentées. D'autres sections traitent des concepts de base des CR, des techniques SM et ML, de la formation des modèles et de la manière dont les performances prédictives ont été évaluées. La section "Résultats" décrit PLANNCR étendu ajusté avec deux mesures, et compare les performances prédictives de toutes les méthodes en termes de discrimination et de calibration. Le manuscrit se termine par une « discussion » sur les résultats, les limites et les perspectives futures de ce travail.

Cette section est divisée en plusieurs sous-sections où la méthodologie utilisée pour ce travail est présentée au lecteur. Dans un premier temps, les données cliniques sont décrites. Ensuite, les techniques SM et ML sont discutées. Deux modèles statistiques bien connus pour les RC sont utilisés : le modèle de Cox spécifique à la cause [10] et le modèle de régression des risques de sous-distribution Fine-Gray [11], ainsi que deux extensions des techniques populaires de ML pour les RC : le RSFCR [25] et le PLANNCR [23] tels qu'initialement développés ou avec quelques modifications. Ensuite, il est présenté comment les modèles ont été entraînés et quelles mesures de performance ont été utilisées pour évaluer leur capacité prédictive. Plus de détails techniques sont fournis dans le matériel supplémentaire.

Les sarcomes des tissus mous des extrémités (eSTS) constituent une grande variété de sous-types histologiques de tailles et de grades différents qui affectent les patients de tout groupe d'âge. Les protocoles de traitement peuvent différer entre les instituts et les pays. Par conséquent, des différences importantes peuvent être observées dans l'évolution clinique et le pronostic des patients [27]. Au fil des ans, plusieurs modèles de prédiction pronostique ont été développés pour la survie globale et la récidive locale [28,29,30].

Pour ce projet, une cohorte rétrospectivement collectée de 3826 patients avec eSTS a été utilisée [29]. L'ensemble de données contenait des patients pseudo-anonymisés du Leiden University Medical Center (Leiden, Pays-Bas), Royal Orthopaedic Hospital (Birmingham et Stanmore, Royaume-Uni), Netherlands Cancer Institute (Amsterdam, Pays-Bas), Mount Sinai Hospital (Toronto, Canada), the Norwegian Radium Hospital (Oslo, Norvège), Aarhus University Hospital (Aarhus, Danemark), Skåne University Hospital (Lund, Suède), Medical University Graz (Graz, Autriche), Royal Marsden Hospital (Londres, Royaume-Uni), Daniel den Ho ed (Rotterdam, Pays-Bas), Radboud University Medical Center (Nimègue, Pays-Bas), University Medical Center Groningen (Groningen, Pays-Bas), Haukeland University Hospital (Bergen, Norvège), Helios Klinikum Berlin-Buch (Berlin, Allemagne), MedUni Vienna (Vienne, Autriche), Vienna General Hospital (Vienne, Autriche). De plus, les patients eSTS de l'essai contrôlé randomisé EORTC 62931 ont été inclus [31]. Les données des centres ont été recueillies entre janvier 2000 et décembre 2014. Les patients de l'essai EORTC ont été recrutés entre février 1995 et décembre 2003.

Les patients ont été sélectionnés à partir du registre des sarcomes de chaque hôpital sur la base du diagnostic histologique. Ceux initialement traités sans intention curative, ont présenté une récidive locale ou des métastases à distance au départ, avaient un sarcome de Kaposi ou un rhabdomyosarcome (forme pédiatrique), une tumeur était présente dans l'abdomen, le thorax, la tête ou le cou, ou ont été traités avec une perfusion boiteuse isolée car le traitement néoadjuvant a été exclu de la collection.

L'ensemble de données contenait neuf facteurs pronostiques. Sept étaient catégoriques ; sexe (féminin ou masculin), marge chirurgicale (\(R_{0}\) pour négatif ou \(R_{1-2}\) pour positif avec des cellules tumorales dans la surface encrée de la marge de résection), chimiothérapie adjuvante (non ou oui), grade tumoral (II ou III), profondeur tumorale par rapport au fascia d'investissement (superficiel ou profond), radiothérapie (non, néoadjuvante ou adjuvante), sous-type histologique (myxofibrosarcome, sarcome synovial, histio fibreuse maligne cytome / sarcome pléomorphe indifférencié / sarcomes (pléomorphes) des tissus mous non spécifiés, léiomyosarcome, liposarcome ou autre). Deux étaient continus; âge initial (en années) et taille de la tumeur par le plus grand diamètre mesuré à l'examen anatomopathologique (en centimètres).

La durée médiane de survie au suivi est de 5,98 ans estimée par Kaplan-Meier inverse (quartile 25 % : 3,94 ans, quartile 75 % : 8,80 ans, extrêmes : 0,01 à 16,85 ans) [8]. Le critère d'évaluation d'intérêt est défini comme le temps en années entre la chirurgie et la progression de la maladie (récidive locale ou métastase à distance) de l'eSTS, avec le décès comme événement concurrent ; 1773 patients étaient vivants/censurés à la fin du suivi (46,34%), 1554 avaient une progression de la maladie (40,62%) et 499 sont décédés sans récidive locale/métastase à distance (13,04%).

L'ensemble de données contenait globalement 3,70 % de données manquantes pour les neuf variables, avec 2 514 cas complets (65,71 %). Plus précisément, il y avait des valeurs manquantes (0,97-11 %) pour toutes les variables ; 11,00 % pour la profondeur tumorale (421/3826), 8,21 % pour le sous-type histologique (314/3826), 7,40 % pour la marge chirurgicale (283/3826), 4,36 % pour la chimiothérapie adjuvante (167/3826), 4,05 % pour la taille tumorale (155/3826), 3,53 % pour le sexe (135/3826), 2,61 % pour la radiothérapie (100/3826), 1,99 % pour le grade de la tumeur (76/3826) et 0,97 % pour l'âge (37/3826), par ordre décroissant, respectivement.

Une simple imputation a été utilisée pour éviter d'écarter les observations des enregistrements presque complets. L'algorithme missForest a été appliqué pour reconstruire toutes les valeurs manquantes, qui est l'algorithme de forêt aléatoire le plus exhaustif/précis pour les données manquantes [32]. Il s'agit d'une méthode d'imputation non paramétrique qui ne fait aucune hypothèse a priori concernant la structure des données. Une forêt aléatoire de 1000 arbres (pour la stabilité du modèle) a été construite pour chaque variable avec des informations manquantes, testant toutes les combinaisons de variables possibles comme réponses. Le tableau 1 fournit les données démographiques des patients de l'ensemble de données final (les données démographiques de l'ensemble de données d'origine sont fournies dans le tableau S1 du fichier supplémentaire 1).

Généralement, pour les données de survie, si plusieurs types d'événements se produisent, un modèle décrivant la progression de chacun des RC est nécessaire. Les données observables sont représentées par le temps de défaillance T, la cause de la défaillance D (\(D \in 1, \cdots , k\), \(k \ge 1\); ici k = 2), et un vecteur covariable \(\mathbf {Z}\). Habituellement, un type d'événement est intéressant (c.-à-d. la progression de la maladie sous forme de récidive locale ou de métastase à distance) alors que les autres événements pourraient l'empêcher de se produire (ici, l'événement concurrent est le décès).

Suivant Putter et al. (2007) [1], un concept fondamental dans la modélisation des CR est la fonction de risque spécifique à une cause qui dénote le risque d'échec d'une cause donnée en présence de CR :

Ensuite, le danger cumulatif spécifique à une cause peut être spécifié comme

et la fonction de survie (probabilité de n'avoir échoué pour aucune cause à l'instant t) peut s'écrire

La fonction d'incidence cumulée (CIF) de la cause k est définie comme \(I_{k}(t) = Prob(T \le t, D = k)\), la probabilité d'échec de la cause k avant l'instant t. Cela peut être lié aux dangers spécifiques à la cause par l'expression :

Ceci est également appelé la fonction de sous-distribution basée sur le fait que la probabilité cumulée d'échouer de la cause k ne peut pas atteindre un, et par conséquent, ce n'est pas une distribution de probabilité appropriée.

La régression sur les risques spécifiques à une cause est une extension du modèle populaire de risques proportionnels de Cox pour les RC [10, 33]. Le danger spécifique à la cause de la cause k d'un sujet avec le vecteur covariable \(\mathbf {Z}\) est modélisé comme

où \(\lambda _{k, 0}(t)\) est le danger spécifique à la cause, et le vecteur \(\varvec{\beta }_{k}\) représente les effets des covariables sur la cause k. Les patients qui passent à un autre état autre que k sont censurés à leur moment de transition.

En 1999, Fine et Gray ont introduit un modèle de risques de sous-distribution, qui peut directement régresser sur CIF [11] :

Pour le modèle de Cox spécifique à une cause, l'ensemble de risques (nombre de patients à risque) diminue à chaque instant où il y a une défaillance d'une autre cause. En revanche, pour le modèle de Fine et Gray, les individus qui échouent pour une autre cause restent dans l'ensemble à risque. Les aléas de sous-distribution sont ensuite modélisés en supposant des aléas proportionnels :

Semblable au modèle de Cox standard, l'approche de vraisemblance partielle est utilisée pour estimer les paramètres.

Les forêts de survie aléatoires pour les risques concurrents (RSFCR) [25] sont une extension du cadre RSF [21, 22] pour les CR avec des données censurées à droite proposé par Ishwaran et al. en 2014. Il s'agit d'une approche d'arbre d'ensemble entièrement non paramétrique pour l'estimation du CIF pour les événements concurrents (le CIF et la fonction de risque spécifique à la cause sont liés comme indiqué dans l'équation (4)). RSFCR peut modéliser directement les effets et les interactions non linéaires pour effectuer une prédiction précise sans faire d'hypothèses préalables sur les données sous-jacentes.

L'algorithme de RSFCR est basé sur un partitionnement binaire récursif tout en injectant un caractère aléatoire de deux manières : (a) en tirant des échantillons B bootstrap à partir des données d'apprentissage, et (b) en développant un seul arbre CR pour chaque échantillon bootstrap en sélectionnant au hasard un sous-ensemble de variables candidates à chaque nœud (région de l'arbre). Une règle de fractionnement CR est maximisée pour diviser chaque nœud parent en nœuds filles à l'aide des variables sélectionnées. Les auteurs proposent deux règles de répartition : soit une règle de répartition spécifique à un événement, soit une combinaison de règles de répartition spécifiques à un événement sur les k événements. Ici, la règle de séparation spécifique à l'événement a été appliquée car la progression de la maladie était d'un intérêt majeur (séparation du log-rank pondéré, détails techniques dans [25]). Ensuite, chaque arbre est agrandi jusqu'à sa taille maximale sous la contrainte que les nœuds terminaux (les extrémités de chaque arbre) doivent avoir au moins un cas unique. Dans les nœuds terminaux, les méthodologies de Kaplan-Meier [8] et d'Aalen-Johansen [34] sont utilisées pour estimer respectivement la fonction de survie sans événement et le CIF spécifique à la cause. Enfin, les estimations d'ensemble sont calculées en faisant la moyenne de chaque estimateur sur les B arbres cultivés. Plus de détails techniques sont fournis dans le fichier supplémentaire 2.

In 2006, Biganzoli et al. extended the partial logistic artificial neural network to competing risks (PLANNCR) for the joint modelling of discrete cause-specific hazards [3.0.CO;2-D ." href="/articles/10.1186/s12874-023-01866-z#ref-CR18" id="ref-link-section-d54317150e2646"> 18, 23]. PLANNCR est un réseau à anticipation composé d'un groupe d'unités appelées nœuds (ou neurones) dans chaque couche. Il possède une couche d'entrée qui capte les signaux et les transmet à une seule couche cachée après l'application d'une fonction d'activation (également appelée transformation). Une fonction d'activation module le degré de non-linéarité transféré des entités d'entrée à la couche cachée. Les connexions entre les neurones artificiels de différentes couches sont appelées arêtes - chacune ayant un poids. Les poids sont ajustés par l'entraînement augmentant ou diminuant la force de chaque connexion [35]. Les signaux sont transmis vers la couche de sortie, qui fournit une estimation lissée des probabilités d'événements conditionnels discrets (dans plusieurs nœuds de sortie ; chacun pour un événement), avec une autre fonction d'activation.

Pour les besoins de la mise en œuvre, les durées de survie sont discrétisées en un ensemble d'intervalles \(l = 1, \cdots , L\) disjoints \(A_{l} = (\tau _{l-1}, \tau _{l}]\), où \(0=\tau _{0}<\tau _{1}<\cdots <\tau _{L}\) est un ensemble de points de temps prédéfinis (généralement des années). th}\) intervalle, les temps observés sont regroupés sur un seul point \(\tau _{l}\). Les données doivent être transformées dans un format longitudinal où la variable de temps (en intervalles) est ajoutée dans le cadre des caractéristiques d'entrée à côté des caractéristiques pronostiques. Les sujets sont répétés pour le nombre d'intervalles observés sur les données d'entraînement et pour tous les intervalles de temps sur les données de test. PLANNCR peut modéliser des effets non linéaires, non proportionnels et non additifs entre les facteurs pronostiques sur Ici, sans perte de généralité, chaque sujet a été répété pendant 1 à 11 intervalles de temps indiquant les années depuis la chirurgie. Le dernier intervalle comprenait des temps de survie supérieurs à 10 ans (les intervalles suivants n'étaient pas d'intérêt).

Dans le modèle CRs, le vecteur de réponse a \(R + 1\) variables, avec \(r = 1, \cdots ,R\) les causes possibles d'intérêt (ici \(R = 2\)). Soit \(\mathbf {z}_{k} = (\tau _{l}, \mathbf {x}_{k}\)) défini par deux composantes : le vecteur covariable \(\mathbf {x}_{k}\) (\(k = 1, 2, \cdots , p\)) et l'intervalle de temps \(\tau _{l}\). La dépendance conjointe des dangers discrets spécifiques à une cause est modélisée comme suit :

où \(h = 1, \cdots , H\) nœuds dans la couche cachée, \(\varvec{\beta }\) le vecteur des poids estimés pour les couches d'entrée-cachées (\(\beta _{01}, \cdots , \beta _{0H}, \beta _{1}, \cdots , \beta _{H}\)), les couches de sortie cachées (\(\beta _{0} , \beta _{1}^{a}, \cdots , \beta _{R}^{a}\)), et \(\alpha _{h}\) la fonction d'activation sigmoïde (logistique) pour la couche cachée \(\alpha _{h}(\mathbf {z}_{k}, \varvec{\beta }_{h}) = \frac{\exp (\beta _{0h} + \beta _{h}^T \mathbf {z}_{k})}{1 + \exp (\beta _{0h} + \beta _{h}^T\mathbf {z}_{k})}\).

La fonction d'activation pour la couche de sortie est le softmax fournissant les dangers discrets spécifiques à une cause :

pour \(l = 1, \cdots , L\) intervalles, et \(r = 1, \cdots ,R\) causes d'intérêt. Étant donné que PLANNCR a un nœud de sortie différent pour chaque CR (1 + R nœuds de sortie au total), il s'agit d'une extension des réseaux de neurones standard pour la classification multiple recourant à la vraisemblance multinomiale. Pour la suite de cet article, on l'appellera PLANNCR original [23].

Des extensions similaires à la spécification du PLANNCR sont fournies comme dans Kantidakis et al. (PLANN étendu, 2020) [20]. Plus précisément, PLANNCR étendu est optimisé pour étudier deux nouvelles fonctions d'activation pour la couche cachée : (1) l'unité linéaire rectifiée (ReLU) une fonction d'activation commune, \(\alpha _{h}(\mathbf {z}_{k}, \varvec{\beta }_{h}) = \max (0, \beta _{0h} + \beta _{h}^T \mathbf {z}_{k})\), ou (2) la tangente hyperbolique (tanh), \(\alpha _{h}(\mathbf {z}_{k}, \varvec{\beta }_{h}) = \frac{1 - \exp (-2(\beta _{0h} + \beta _{h}^T \mathbf {z}_{k}))}{1 + \exp (-2(\beta _{0h} + \beta _{ h}^T \mathbf {z}_{k}))}\). Chaque fois qu'un réseau de neurones est équipé d'une de ces fonctions d'activation pour la couche cachée ou de la fonction d'activation sigmoïde (logistique) (comme dans PLANNCR original). Notez que la fonction d'activation pour la couche de sortie est nécessairement le softmax pour fournir une estimation de risque discrète lissée. De nouveaux hyperparamètres sont spécifiés dans une bibliothèque R de pointe [36]. Contrairement à Kantidakis et al. (2020), les L intervalles sans chevauchement sont spécifiés dans une variable temporelle (au lieu de L variables distinctes) pour ne pas gonfler le nombre d'entités en entrée. De plus, les réseaux à deux couches cachées ne sont pas testés ici en raison du risque de surajustement (taille d'échantillon petite à moyenne, petit nombre de prédicteurs). Plus de détails techniques pour PLANNCR original et PLANNCR étendu sont fournis dans le fichier supplémentaire 2.

La figure 1 montre comment la formation du modèle a été effectuée. Sur la base des données eSTS d'origine, 100 ensembles de données de formation bootstrap ont été tirés avec 3 826 patients chacun (échantillonnage avec remplacement, \(\approx\) 63,2 % des données d'origine). Ces ensembles de données ont été divisés au hasard en deux parties complémentaires pour régler les hyperparamètres des modèles ML à l'aide de la recherche de grille (\(\frac{3}{4}\) pour entraîner les modèles et \(\frac{1}{4}\) pour tester leurs performances, mêmes parties pour toutes les méthodes). Les performances des modèles finaux ont été évaluées sur les données de validation, qui étaient les échantillons omis (hors sac, \(\approx\) 36,8 % des données). Les estimations d'erreur hors sac sont presque identiques à la validation croisée N fois [37]. Pour les approches de régression standard, des modèles ont été construits sur chaque ensemble de données de formation complet (composé de 3826 patients) en utilisant les neuf covariables. Leurs performances prédictives ont été évaluées sur l'ensemble de données de validation respectif. Les dépendances de formes fonctionnelles complexes (effets non linéaires, non additifs, dépendant du temps) n'ont pas été étudiées. Toutes les analyses ont été réalisées en langage de programmation R version 4.1.2 [26]. Les packages utilisés dans la mise en œuvre et les paramètres de réglage pour les techniques ML sont fournis dans le fichier supplémentaire 2.

Illustration de l'approche de formation modèle répétée 100 fois. Pour les techniques ML, les hyperparamètres ont été ajustés sur les ensembles de données de formation. Les performances finales de tous les modèles ont été évaluées sur les ensembles de données de validation (échantillons omis)

Les performances prédictives des méthodes ont été évaluées en termes de discrimination et de calibration sur chaque jeu de données de validation. L'aire sous la courbe (AUC) et le score de Brier avec CR ont été utilisés. Le défaut d'étalonnage (erreur de précision absolue) a également été estimé. Ces mesures d'évaluation ont été utilisées car elles sont indépendantes du modèle - elles peuvent être appliquées à n'importe quel modèle pour évaluer ses performances prédictives. D'autres mesures telles que le critère d'information d'Akaike (AIC) ou le critère d'information bayésien (BIC) n'ont pas été sélectionnées, car elles ne peuvent pas être (facilement) calculées pour comparer les différentes techniques SM et ML appliquées ici.

Suivant Blanche et al. [38], nous présentons la version dynamique des mesures avec CRs (voir aussi [39]). Soit \(\pi _{i}(\cdot ,\cdot )\) un processus de prédiction spécifique au sujet i (\(i = 1, 2, \cdots , n\) sujets indépendants et identiquement distribués) pour tous les instants repères s (instants auxquels les prédictions sont faites) et l'horizon de prédiction t. Sans perte de généralité, nous fixons \(\pi _{i} (s, t) = 0\) pour tous les sujets i qui ne sont plus à risque au temps s, et nous concentrons sur la prédiction de l'événement \(D = 1\) (événement principal étudié). Une AUC dynamique à un temps de repère s pour un horizon de prédiction t peut être définie comme

où \(\Delta _{i} (s, t)\) = \(\mathbbm {1}_{s

L'AUC dynamique avec CR est une mesure de discrimination. Il varie généralement de 0,5 à 1 (plus il est élevé, mieux c'est). Une bonne précision prédictive est fournie par un modèle qui donne généralement des risques prédits d'événement plus élevés pour les sujets qui ont vécu l'événement d'intérêt par rapport aux sujets qui n'ont pas vécu l'événement d'intérêt.

Une mesure de précision prédictive plus complète avec les RC est le score de Brier. Le score de Brier dynamique attendu peut être écrit comme

This expression can be expanded based on Graaf et al. 1999 [3.0.CO;2-5 ." href="/articles/10.1186/s12874-023-01866-z#ref-CR41" id="ref-link-section-d54317150e5094">41] prenant la forme suivante

où \(H(s) = \{ \mathbf {X}, Y(s), T>s \}\) les informations au temps s utilisées pour calculer la prédiction de \(\pi (s, t)\). Le premier terme de (12) mesure l'étalonnage - à quel point les prédictions sont proches de \(\mathbb{E} [\Delta (s, t) | H(s)]\), le "vrai" risque sous-jacent d'événement dans \((s, s+t]\) étant donné H(s). De plus, le second terme dépend de la capacité de discrimination de H(s). Ainsi, le score de Brier est une mesure à la fois d'étalonnage et de discrimination. petite erreur de prédiction).

Lorsque des données censurées sont présentes, l'indicateur \(\Delta _{i}(s, t)\) est inconnu (ne peut pas être calculé) pour tous les sujets i censurés dans l'intervalle \((s, s+t]\). Par conséquent, la technique de probabilité inverse de censure (IPCW) doit être appliquée pour l'estimation de l'AUC dynamique et du score de Brier pour les RC. Pour plus de détails, voir [38]. Ici, le point de repère a été fixé à \(s = 0\). (ligne de base) pour toutes les analyses car tous les facteurs pronostiques étaient fixes dans le temps.

Enfin, la capacité prédictive des méthodes a été évaluée en fonction de leur erreur d'étalonnage sur chaque ensemble de données de validation (voir Fig. 1). Le calibrage du modèle fait référence à l'accord entre les résultats observés et prédits, dans ce cas l'accord entre les probabilités d'événement d'incidence cumulées observées et prédites pour une cause \(D = k\) au temps \(t = t_{0}\) [42, 43]. Pour chaque modèle SM et ML, les probabilités d'événement d'incidence cumulées prédites sont estimées sur un ensemble de données de validation, et les données sont divisées en \(m = 4\) groupes de taille égale en fonction des quantiles des probabilités d'événement prédites. Les quantiles ont été sélectionnés au lieu (par exemple) des déciles pour éviter tout problème de calcul. Ensuite, les probabilités d'incidence cumulées observées sont calculées pour chaque groupe. Le défaut d'étalonnage est défini comme l'erreur quadratique moyenne (MSE) de la différence entre les probabilités cumulées observées et prédites de défaillance d'une cause spécifique \(D = k\) à l'horizon temporel \(t = t_{0}\)

avec \(I_{k}^{(m)}(t_{0})\) et \(\hat{I_{k}}^{(m)}(t_{0})\) la probabilité d'événement cumulée observée et prédite pour le groupe m, respectivement.

Dans cette section, les résultats des données eSTS sont présentés. Les modèles suivants sont comparés en termes de performances prédictives : (1) Cox spécifique à la cause, (2) Fine-Gray, (3) PLANNCR original, (4) PLANNCR étendu, (5) RSFCR. Chaque modèle est évalué sur 100 ensembles de données de validation (voir Fig. 1). Plus de résultats sur la comparaison entre les méthodes sont fournis dans le fichier supplémentaire 3.

Les hyperparamètres sélectionnés pour PLANNCR original et PLANNCR étendu sont fournis dans la section 1 de la fiche complémentaire 3. Les combinaisons les plus efficaces sont rapportées séparément sur la base du score de Brier / AUC à 5 ans (l'horizon de 5 ans était d'un intérêt clinique majeur).

Pour PLANN original, les deux mesures de performance ont sélectionné les mêmes valeurs pour les 2 hyperparamètres (taille et décroissance). D'autre part, des hyperparamètres séparés ont été sélectionnés pour PLANNCR étendu sur un espace 5-D (taille de nœud, taux d'abandon, taux d'apprentissage, momentum, poids de classe faible). Les détails techniques se trouvent dans le fichier complémentaire 2. Parmi les 3 fonctions d'activation testées pour la couche cachée ("sigmoïde", "relu", "tanh"), la "sigmoïde" a fourni les meilleures performances sur les données d'entraînement pour le score Brier et l'AUC. Un poids de classe faible de 1 a été sélectionné (aucun ajustement pour la progression de la maladie ou le décès).

La performance du PLANNCR étendu ajusté a été comparée pour la progression de la maladie (événement d'intérêt). Les résultats sont présentés dans le tableau 2. PLANNCR étendu réglé avec le score de Brier à 5 ans a eu une meilleure performance en termes de score de Brier et d'erreur d'étalonnage à 2, 5 ou 10 ans. Cependant, PLANNCR étendu ajusté avec l'AUC à 5 ans avait une meilleure performance concernant l'AUC à 5 et 10 ans. Ces résultats étaient attendus car le score de Brier est une mesure plus complète prenant en compte à la fois la discrimination et l'étalonnage. Pour le reste des résultats présentés ci-dessous, des combinaisons optimales pour le score de Brier à 5 ans ont été sélectionnées pour PLANNCR étendu.

Dans cette section, les cinq méthodes sont comparées sur les 100 ensembles de données de validation pour différentes mesures de performance prédictive : (1) scores de Brier, (ii) ASC, (iii) erreur d'étalonnage à 2, 5 et 10 ans, respectivement, pour la progression de la maladie (récidive locale ou métastase à distance). Les hyperparamètres optimaux et les graphiques supplémentaires pour l'événement d'intérêt (progression de la maladie) et l'événement concurrent (décès) sont inclus dans les sections 1 et 2 du fichier supplémentaire 3.

La figure 2 montre le score de Brier (valeurs inférieures, meilleures) et l'ASC (valeurs supérieures, meilleures) à 2, 5 et 10 ans depuis la chirurgie pour toutes les méthodes concernant la progression de la maladie.

Performances prédictives du modèle de Cox spécifique à la cause, du modèle Fine-Gray, du PLANNCR original, du PLANNCR étendu (accordé avec le score de Brier à 5 ans et incluant la fonction d'activation « sigmoïde » pour la couche cachée) et du RSFCR pour l'événement d'intérêt : progression de la maladie ± intervalles de confiance centiles à 95 % basés sur 100 ensembles de données de validation. Panneau de gauche : score de Brier, panneau de droite : ASC à 2, 5 et 10 ans depuis la chirurgie

Pour le score de Brier dépendant du temps, le modèle de Cox par cause avait en général les meilleures performances suivi du modèle Fine-Gray et RSFCR à 2 ans, et du PLANNCR étendu et Fine-Gray à 5 et 10 ans. PLANNCR original avait légèrement les pires performances à ces moments-là. Intervalles de confiance (IC) à 95 % basés sur la méthode des centiles pour 100 ensembles de données de validation utilisant les données hors sac superposées. PLANNCR étendu avait un IC à 95 % légèrement supérieur à 2 ans et un RSFCR à 10 ans. En ce qui concerne l'AUC à 2, 5 et 10 ans, le modèle de Cox spécifique à la cause et le PLANNCR étendu avaient les meilleures performances (très proches l'un de l'autre) suivis du modèle Fine-Gray, du RSFCR et du PLANNCR original par ordre décroissant de performances. Les intervalles de confiance à 95 % étaient très similaires pour les méthodes, à l'exception de PLANNCR original qui avait des intervalles beaucoup plus larges à tout moment. Cela signifie que sa capacité de discrimination (AUC) n'était pas cohérente (fluctuait) dans les ensembles de données de validation.

La figure S1 dans le fichier supplémentaire 3 fournit le même graphique avec PLANNCR étendu réglé avec AUC à 5 ans. La capacité prédictive a diminué en termes de score de Brier mais a légèrement augmenté en ce qui concerne l'AUC à 5 et 10 ans (voir également Tableau 2). Les figures S3 et S5 du fichier supplémentaire 3 illustrent la capacité pronostique (score de Brier, AUC) de tous les modèles de décès (l'événement concurrent). Le SM (cause spécifique Cox et Fine-Gray) avait le score Brier le plus bas suivi du RSFCR. Les modèles PLANNCR avaient de moins bonnes performances et un IC plus grand que les autres à 2 ans. PLANNCR original continuait d'avoir des IC plus grands à 5 et 10 ans, alors que PLANNCR étendu avait des IC plus étroits à 5 et 10 ans (performance plus constante). Pour l'ASC, le modèle de Cox spécifique à la cause et le PLANNCR étendu avaient les valeurs les plus élevées, suivis du modèle Fine-Gray et du RSFCR. PLANNCR original a les performances les plus basses et le plus grand IC à 95 %.

Les cinq modèles ont été étudiés en termes de mauvais calibrage (définition dans la section « Évaluation prédictive des performances ») à 2, 5 et 10 ans. Les résultats sont illustrés à la Fig. 3 avec des boîtes à moustaches. Le SM (modèle de Cox par cause, Fine-Gray) présentait de loin l'erreur d'erreur d'étalonnage la plus faible à 2 ans pour la progression de la maladie (cause 1). Le SM puis le PLANNCR original avaient le plus faible défaut d'étalonnage à 5 ans (le SM et le PLANNCR prolongés à 10 ans). PLANNCR étendu avait l'erreur d'erreur d'étalonnage la plus élevée à 2 ans, la deuxième plus élevée à 5 ans et la plus faible à 10 ans (à côté du modèle de Cox spécifique à la cause pour ce point temporel). Le RSFCR avait le pire étalonnage à 5 et 10 ans pour l'incidence cumulée de l'événement d'intérêt.

Mauvais étalonnage du modèle Cox spécifique à la cause, modèle Fine-Gray, PLANNCR original, PLANNCR étendu (accordé avec le score de Brier à 5 ans) et RSFCR à 2, 5 et 10 ans pour l'événement d'intérêt : progression de la maladie basée sur 100 ensembles de données de validation. L'erreur d'étalonnage a été calculée comme l'erreur quadratique moyenne (MSE) entre les probabilités d'événement d'incidence cumulées observées et prédites (pour 4 groupes)

Le tracé d'erreur d'étalonnage pour PLANNCR étendu réglé avec AUC à 5 ans est disponible dans le fichier supplémentaire 3 (Fig. S2). PLANNCR étendu est moins bien calibré par rapport à la Fig. 3. Ce résultat était attendu puisque dans la figure supplémentaire, le modèle a été réglé pour la discrimination uniquement (AUC à 5 ans), alors que dans la Fig. 3, il a été réglé en tenant compte à la fois de la discrimination et de l'étalonnage (score de Brier à 5 ans). Les figures S4 et S6 montrent l'erreur d'erreur d'étalonnage pour les cinq méthodes pour l'événement concurrent (décès). Le modèle de Cox spécifique à la cause et le modèle Fine-gray avaient l'erreur d'erreur d'étalonnage la plus faible. Les RSFCR montrent une erreur d'erreur d'étalonnage similaire pour le décès à 2 et 5 ans et une erreur légèrement pire à 10 ans. Les deux réseaux de neurones présentaient l'erreur d'erreur d'étalonnage la plus élevée à tout moment (distinct des trois autres modèles). Une explication provisoire de l'erreur d'étalonnage PLANNCR plus élevée pour l'événement concurrent est qu'elle résulte d'une régularisation plus lourde des probabilités de décès prédites (pour un moment donné) entraînant une plus petite propagation des prédictions là-bas. Une solution pour améliorer le calibrage pourrait être d'ajuster les performances de PLANNCR (par exemple score Brier à 5 ans) pour l'événement en compétition. Cependant, comme la progression de la maladie était d'un intérêt majeur ici, PLANNCR original et étendu étaient tous deux adaptés à la progression de la maladie.

À notre connaissance, il s'agit de la première étude qui a comparé les techniques de SM aux techniques de ML pour les CR dans le sarcome des tissus mous. Un total de 3 826 patients recueillis rétrospectivement ont été analysés avec un eSTS de haut grade sur la base de neuf facteurs pronostiques (taille d'échantillon petite/moyenne, contexte de faible dimension). Le SM (cause-specific Cox, Fine-Gray) et le RSFCR utilisaient des heures exactes pour l'événement tandis que les réseaux de neurones (PLANNCR original, PLANNCR étendu) nécessitaient une préparation des données dans un format long où les points de temps exacts étaient transformés en L intervalles de temps séparés (années). Les cinq méthodes ont prédit l'incidence cumulée de la progression de la maladie (événement d'intérêt) et du décès (événement concurrent) depuis la date de la chirurgie.

Les résultats ont montré que les modèles ML ont des performances similaires à celles du SM en termes de score de Brier et d'ASC à 2, 5 et 10 ans pour la progression de la maladie et le décès (intervalles de confiance à 95 % se chevauchant). La capacité prédictive de PLANNCR étendu était généralement meilleure que RSFCR et PLANNCR original, en particulier pour l'AUC. Cela signifie que PLANNCR étendu avait la capacité de mieux faire la distinction entre les groupes de patients à faible et à haut risque. Néanmoins, les SM étaient souvent mieux calibrés que les trois techniques de ML. Le mauvais calibrage de PLANNCR original et étendu était plus prononcé pour l'événement en compétition. Ces résultats sont cohérents avec une étude de simulation de notre groupe qui a comparé les performances prédictives du SNN (PLANN original et extensions) avec les modèles de Cox pour les données d'ostéosarcome dans un cadre simple similaire (250 ou 1000 patients, cinq facteurs pronostiques) [44]. Par conséquent, une plus grande attention à l'étalonnage du modèle (précision prédictive absolue) est nécessaire de toute urgence pour les méthodes ML.

Pour ce travail, nous avons échantillonné avec remplacement 100 fois (bootstrapping) à partir des données eSTS pour former les modèles ML. Ensuite, les échantillons laissés de côté ont été utilisés pour valider en interne les performances de tous les modèles et obtenir des IC empiriques à 95 % (voir Fig. 1). Cela peut être une approche avantageuse lorsque la taille de l'échantillon est limitée car elle évite de diminuer le nombre de patients pour le développement/la validation du modèle. Cependant, cela a un coût car cette procédure est répétée plusieurs fois et est donc coûteuse en calculs. Les performances de tous les modèles ont été évaluées à l'aide de deux mesures dépendant du temps : le score de Brier (discrimination et étalonnage) et l'AUC (discrimination) à 2, 5 et 10 ans, respectivement. Nous avons choisi l'AUC dépendante du temps plutôt que l'adaptation de l'indice de concordance de Harrell au paramètre CRs [45, 46] - une mesure de performance globale pour la discrimination - puisque cette dernière n'est pas une mesure appropriée pour l'évaluation des risques prédits à t-année (voir [47]).

Deux modèles de régression pour les CR ont été appliqués pour la comparaison avec les techniques de ML ; la régression des risques par cause de Cox et Fine-Gray. Le modèle de Cox cause-spécifique pourrait être mieux adapté pour aborder les questions étiologiques, tandis que le Fine-Gray pour estimer le pronostic clinique des patients - ce qui était l'objectif ici [3, 5, 48]. Néanmoins, les deux SM ont été utilisés pour une approche plus complète, fournissant des résultats similaires et surpassant les modèles ML en matière d'étalonnage. Les dépendances fonctionnelles complexes telles que les effets non linéaires et non additifs n'ont pas été étudiées, ce qui montre à quel point le MS peut être efficace dans des contextes simples (avec une taille d'échantillon petite/moyenne et un nombre limité de prédicteurs) malgré qu'ils supposent une additivité des effets et une proportionnalité des dangers au fil du temps. D'autre part, les méthodes ML peuvent être très flexibles (pas d'hypothèses de modélisation a priori), mais nécessitent généralement de (très) grands ensembles de données pour assurer un léger surajustement de leurs modèles de prédiction clinique développés [49, 50].

D'autres modèles basés sur le ML ont été récemment proposés pour l'analyse de survie avec des CR et leur capacité pronostique a été comparée à des références typiques telles que Cox, Fine-Gray et RSFCR spécifiques à la cause. En 2017, Alaa et van der Schaar [51] ont proposé un modèle bayésien non paramétrique pour évaluer conjointement le risque d'un patient de multiples événements indésirables concurrents. Les durées de survie par cause du patient sont modélisées en fonction des covariables à l'aide de processus gaussiens multitâches profonds. Bellot et van der Schaar [52] ont développé en 2018 un modèle de mélange bayésien arborescent pour les CR. Ils ont construit un modèle de mélange bayésien hiérarchique à travers des forêts de survie aléatoires multivariées et ont évalué l'importance des variables pour chaque cause. Récemment, un réseau neuronal profond (plusieurs couches cachées) a été utilisé par Nagpal et al. appelées machines de survie profondes [53]. Il s'agit d'une méthodologie paramétrique pour apprendre conjointement une représentation non linéaire profonde commune des caractéristiques d'entrée. Ce réseau estime séparément la distribution des événements pour chaque CR. Notez que pour ce projet, nous n'avons spécifié que des réseaux de neurones peu profonds (1 couche cachée) pour éviter un risque excessif de surajustement dans ce cadre simple.

En se concentrant sur l'utilité pratique, les deux SM ont l'avantage par rapport aux trois techniques ML examinées. Ces derniers nécessitent un temps de mise en œuvre substantiel pour le prétraitement des données, le réglage des paramètres, et sont plus gourmands en calculs à exécuter (en termes d'heures ici). Dans le même temps, l'optimisation du modèle de PLANNCR est une tâche délicate qui nécessite des méthodes numériques robustes et une utilisation habile, sinon le réseau pourrait converger dans des minima sous-optimaux dans la fonction d'erreur [35]. À partir des trois techniques ML, PLANNCR étendu a exigé plus de temps et d'efforts pour la formation en raison du plus grand nombre de paramètres de réglage (cinq contre deux pour PLANNCR original et RSFCR). Au contraire, les modèles Cox et Fine-Gray spécifiques à une cause ne nécessitent aucun réglage d'hyperparamètres et offrent une mise en œuvre rapide.

De nos jours, l'emploi du ML est surestimé dans certains contextes de la médecine en raison de l'intérêt accru pour l'application de techniques modernes pour créer des modèles de prédiction. Par conséquent, il est nécessaire de rapporter les modèles de prédiction alimentés par l'intelligence artificielle de manière complète et transparente pour permettre une évaluation critique, la reproductibilité des étapes de modélisation et des résultats par un public plus large, et pour éviter le gaspillage de la recherche [14, 15, 54]. En général, une approche de régression traditionnelle peut toujours fournir des probabilités de survie prédites et des performances pronostiques plus précises par rapport à un modèle ML de pointe, en particulier dans les contextes médicaux non complexes (taille d'échantillon faible à moyenne, petit nombre de prédicteurs). Dans ce cas, l'application d'algorithmes ML ne doit être motivée que pour l'exploration des données collectées.

À l'avenir, il pourrait être utile de comparer la capacité prédictive du modèle de Cox à risque proportionnel par cause avec le PLANNCR original / étendu pour les variables dépendant du temps. La première méthode permet l'inclusion de covariables dépendant du temps dans un logiciel standard, et la seconde peut naturellement incorporer des covariables dépendant du temps en raison de la transformation essentielle des données dans un format long pour chaque patient. De plus, Fine-Gray et RSFCR peuvent être étendus pour fournir des prédictions dynamiques avec des covariables dépendant du temps pour les CR en créant un ensemble de données de repère à un ensemble de points de repère \(t_{LM}\) [55]. Enfin, il serait intéressant de comparer les techniques SM et ML en matière d'interprétation. Dans l'ensemble, SM offre une interprétation plus simple via des rapports de risque spécifiques à une cause, tandis que PLANNCR peut fournir la forme de la fonction de risque spécifique à une cause au fil du temps et des covariables, et RSFCR l'importance de la variable. Des recherches supplémentaires sont nécessaires sur une métrique commune pour comparer directement toutes les méthodes.

Dans cet article, nous avons discuté des alternatives ML (PLANNCR original, PLANNCR étendu, RSFCR) au SM (modèle de Cox spécifique à la cause, Fine-Gray) pour construire des modèles pronostiques pour l'analyse de survie avec des CR dans les données eSTS avec une taille d'échantillon petite/moyenne et un nombre limité de prédicteurs (réglage simple). Les méthodes ont été comparées en termes de discrimination et d'étalonnage. Les modèles ML ont atteint une performance équivalente en termes de mesures de performance prédictive appropriées à 2, 5 ou 10 ans depuis la chirurgie (intervalles de confiance à 95 % se chevauchant), mais les modèles de régression conventionnels étaient généralement mieux calibrés. Par conséquent, une plus grande attention à l'étalonnage est nécessaire. Les techniques modernes basées sur le ML sont moins pratiques car elles nécessitent un temps de mise en œuvre important (prétraitement des données, réglage des hyperparamètres, intensité de calcul), tandis que les modèles de régression sont simples à utiliser et peuvent bien fonctionner sans la charge de travail supplémentaire de la formation des modèles. Un rapport global, complet et transparent de toutes les méthodes est nécessaire pour permettre une évaluation critique, la reproductibilité et éviter le gaspillage de la recherche. À notre avis, pour des données réelles non complexes comme celle-ci, les techniques ML ne devraient être utilisées qu'en complément du SM comme outils exploratoires de la performance du modèle.

Les données cliniques utilisées pour ce projet de recherche sont privées. Le code R développé pour effectuer cette analyse est fourni dans le référentiel GitHub suivant https://github.com/GKantidakis/SM-vs-ML-for-CRs. Le lecteur trouvera également un fichier zip avec les codes R, qui est un exemple complet de cette analyse dans les données R accessibles au public pour le lymphome à cellules folliculaires (données "follic"). Les graphiques d'analyse des données "folliques" (n = 541, p = 4), qui illustrent les mêmes méthodologies au sein de données non complexes, appuient les résultats des données eSTS.

Aire sous la courbe

Intervalle de confiance

Fonction d'incidence cumulée

Risques concurrents

Sarcomes des tissus mous des extrémités

Probabilité inverse de pondération de censure

Kaplan-Meier

Apprentissage automatique

Erreur quadratique moyenne

Réseau neuronal artificiel logistique partiel

Réseau neuronal artificiel logistique partiel - détermination automatique de la pertinence

Réseau neuronal artificiel logistique partiel pour risques concurrents

Réseau neuronal artificiel logistique partiel pour risques concurrents - détermination automatique de la pertinence

Unité linéaire rectifiée

Forêts de survie aléatoires

Forêts de survie aléatoires pour risques concurrents

Modèles statistiques

Réseaux de neurones de survie

Putter H, Fiocco M, Geskus RB. TD en biostatistique : risques concurrents et modèles multi-états. Stat Med. 2007;26(11):2389–430. https://doi.org/10.1002/SIM.2712.

Article CAS PubMed Google Scholar

Varadhan R, Weiss CO, Segal JB, Wu AW, Scharfstein D, Boyd C. Évaluation des résultats pour la santé en présence de risques concurrents : examen des méthodes statistiques et des applications cliniques. Soins médicaux. 2010;48(6 SUPPL.):96–105. https://doi.org/10.1097/MLR.0b013e3181d99107.

Article Google Scholar

Geskus RB. Analyse des données avec des risques concurrents et des états intermédiaires.1ère éd. Boca Raton : Chapman et Hall/CRC ; 2015.

Zhang Z, Cortese G, Combescure C, Marshall R, Lim M, et al. Vue d'ensemble de la validation du modèle pour le modèle de régression de survie avec des risques concurrents à l'aide de données d'études sur le mélanome. Ann Transl Med. 2018;6(16):325. https://doi.org/10.21037/atm.2018.07.38.

Article PubMed PubMed Central Google Scholar

Austin PC, Lee DS, Fine JP. Introduction à l'analyse des données de survie en présence de risques concurrents. Circulation. 2016;133(6):601–9. https://doi.org/10.1161/CIRCULATIONAHA.115.017719.

Article PubMed PubMed Central Google Scholar

Austin PC, Fine JP. Prise en compte des risques concurrents dans les essais contrôlés randomisés : une revue et des recommandations d'amélioration. Stat Med. 2017;36(8):1203–9. https://doi.org/10.1002/sim.7215.

Article PubMed PubMed Central Google Scholar

Koller MT, Raatz H, Steyerberg W, Wolbers M. Risques concurrents et communauté clinique : non-pertinence ou ignorance ? Stat Med. 2012;31(11–12):1089–97. https://doi.org/10.1002/sim.4384.

Article PubMed Google Scholar

Kaplan EL, Meier P. Estimation non paramétrique à partir d'observations incomplètes. J Am Stat Assoc. 1958;53(282):457–81. https://doi.org/10.2307/2281868.

Article Google Scholar

Zhang Z. Analyse de survie en présence de risques concurrents. Ann Transl Med. 2016;5(3). https://doi.org/10.21037/atm.2016.08.62.

Cox DR. Modèles de régression et tables de mortalité. JR Stat Soc Ser B (Méthode). 1972;34(2):187–220.http://www.jstor.org/stable/2985181.

Très bien JP, Grey RJ. Un modèle à risques proportionnels pour la sous-distribution d'un risque concurrent. J Am Stat Assoc. 1999;94(446):496–509. https://doi.org/10.1080/01621459.1999.10474144.

Article Google Scholar

Kourou K, Exarchos TP, Exarchos KP, Karamouzis MV, Fotiadis DI. Applications d'apprentissage automatique dans le pronostic et la prédiction du cancer. Comput Struct Biotechnol J. 2015;13:8–17. https://doi.org/10.1016/j.csbj.2014.11.005.

Article CAS PubMed Google Scholar

Sidey-Gibbons JAM, Sidey-Gibbons CJ. Apprentissage automatique en médecine : une introduction pratique. Méthodologie BMC Med Res. 2019;19(1):1–18. https://doi.org/10.1186/s12874-019-0681-4.

Article Google Scholar

Collins GS, Reitsma JB, Altman DG, Moons KGM. Rapport transparent d'un modèle de prédiction multivariable pour le pronostic ou le diagnostic individuel (TRIPOD): The TRIPOD Statement. BMC Med. 2015;13(1). http://www.biomedcentral.com/1741-7015/13/1. https://doi.org/10.1186/s12916-014-0241-z.

Collins GS, Collins KGM. Rapports de modèles de prédiction d'intelligence artificielle. Lancette. 2019;393(10181):1577–9. https://doi.org/10.1016/S0140-6736(19)30037-6.

Article PubMed Google Scholar

Shahid N, Rappon T, Berta W. Applications des réseaux de neurones artificiels dans la prise de décision organisationnelle des soins de santé : un examen de la portée. PLoS ONE. 2019;14(2):e0212356. https://doi.org/10.1371/journal.pone.0212356.

Article CAS PubMed PubMed Central Google Scholar

Wang P, Li Y, Reddy CK. Apprentissage automatique pour l'analyse de survie : une enquête. ACM Comput Surv. 2019;51(6):1–36. https://doi.org/10.1145/3214306.

Article Google Scholar

Biganzoli E, Boracchi P, Mariani L, Marubini E. Feed forward neural networks for the analysis of censored survival data: a partial logistic regression approach. Stat Med. 1998;17(10):1169–86. 3.0.CO;2-D">https://doi.org/10.1002/(SICI)1097-0258(19980530)17:10<1169::AID-SIM796>3.0.CO;2-D.

Lisboa PJG, Wong H, Harris P, Swindell R. Une approche de réseau de neurones bayésien pour la modélisation de données censurées avec une application au pronostic après une chirurgie du cancer du sein. Artif Intell Med. 2003;28(1):1–25. https://doi.org/10.1016/S0933-3657(03)00033-2.

Article CAS PubMed Google Scholar

Kantidakis G, Putter H, Lancia C, de Boer J, Braat AE, Fiocco M. Modèles de prédiction de survie depuis la transplantation hépatique - comparaisons entre les modèles Cox et les techniques d'apprentissage automatique. Méthodologie BMC Med Res. 2020;20(1):1–14. https://doi.org/10.1186/s12874-020-01153-1.

Article Google Scholar

Ishwaran H, Kogalur UB, Blackstone EH, Lauer MS. Forêts de survie aléatoires. Ann Appl Stat. 2008;2(3):841–60. https://doi.org/10.1214/08-AOAS169.

Article Google Scholar

Breiman L. Forêts aléatoires. Mach Apprendre. 2001;45(1):5–32. https://doi.org/10.1023/A:1010933404324.

Article Google Scholar

Biganzoli E, Boracchi P, Ambrogi F, Marubini E. Réseau de neurones artificiels pour la modélisation conjointe de dangers discrets spécifiques à une cause. Artif Intell Med. 2006;37(2):119–30. https://doi.org/10.1016/j.artmed.2006.01.004.

Article PubMed Google Scholar

Lisboa PJG, Etchells TA, Jarman IH, Arsene CTC, Aung MSH, Eleuteri A, et al. Réseau de neurones artificiels logistiques partiels pour les risques concurrents régularisés avec détermination automatique de la pertinence. IEEE Trans Neural Netw. 2009;20(9):1403–16. https://doi.org/10.1109/TNN.2009.2023654.

Article PubMed Google Scholar

Ishwaran H, Gerds TA, Kogalur UB, Moore RD, Gange SJ, Lau BM. Forêts de survie aléatoires pour risques concurrents. Biostatistique. 2014;15(4):757–73. https://doi.org/10.1093/biostatistics/kxu010.

Article PubMed PubMed Central Google Scholar

L'équipe RC. R : Un langage et un environnement pour le calcul statistique. Fondation R pour le calcul statistique. 2014. http://www.r-project.org/.

Rueten-Budde AJ, van Praag VM, van de Sande MAJ, Fiocco M, Aston W, Bonenkamp H, et al. Validation externe et adaptation d'un modèle de prédiction dynamique pour les patients atteints d'un sarcome des tissus mous de haut grade. J Surg Oncol. 2021;123(4):1050–6. https://doi.org/10.1002/jso.26337.

Article PubMed Google Scholar

Mariani L, Miceli R, Kattan MW, Brennan MF, Colecchia M, Fiore M, et al. Validation et adaptation d'un nomogramme pour prédire la survie des patients atteints d'un sarcome des tissus mous des extrémités à l'aide d'un système à trois niveaux. Cancer. 2005;103(2):402–408. https://pubmed.ncbi.nlm.nih.gov/15578681/. https://doi.org/10.1002/CNCR.20778.

van Praag VM, Rueten-Budde AJ, Jeys LM, Laitinen M, Pollock R, Aston W, et al. Un modèle de prédiction pour les décisions de traitement dans les sarcomes des tissus mous des extrémités de haut grade : Soins personnalisés du sarcome (PERSARC). Eur J Cancer. 2017 ;83 : 313–23. https://doi.org/10.1016/j.ejca.2017.06.032.

Article PubMed Google Scholar

Callegaro D, Miceli R, Bonvalot S, Ferguson P, Strauss DC, Levy A, et al. Impact de la chimiothérapie et de la radiothérapie périopératoires chez les patients atteints de sarcome primitif des tissus mous des membres : analyse rétrospective des principaux sous-types histologiques et des principaux centres de référence. Eur J Cancer. 2018;105:19–27. https://doi.org/10.1016/j.ejca.2018.09.028.

Article PubMed Google Scholar

Woll PJ, Reichardt P, Le Cesne A, Bonvalot S, Azzarelli A, Hoekstra HJ, et al. Chimiothérapie adjuvante avec doxorubicine, ifosfamide et lénograstim pour le sarcome des tissus mous réséqué (EORTC 62931): Un essai contrôlé randomisé multicentrique. Lancette Oncol. 2012;13(10):1045–54. https://doi.org/10.1016/S1470-2045(12)70346-7.

Article CAS PubMed Google Scholar

Stekhoven DJ, Bühlmann P. Missforest-Imputation non paramétrique des valeurs manquantes pour les données de type mixte. Bioinformatique. 2012;28(1):112–8. https://doi.org/10.1093/bioinformatics/btr597.

Article CAS PubMed Google Scholar

Holt JD. Analyses des risques concurrents avec une référence particulière aux expériences de paires appariées. Biométrie. 1978;65(1):159–65. https://doi.org/10.1093/BIOMET/65.1.159.

Article Google Scholar

Aalen OO, Johansen S. Une matrice de transition empirique pour les chaînes de Markov non homogènes basée sur des observations censurées. Scand J Stat. 1978;5(3):141–150. https://www.jstor.org/stable/4615704.

Monseigneur CM. Reconnaissance de formes et apprentissage automatique. New York : Springer ; 2006.

Chollet F. keras. Fondation R pour le calcul statistique. 2015. https://github.com/keras-team/keras.

Hastie T, Tibshirani R, Friedman J. Les éléments de l'apprentissage statistique : exploration de données, inférence et prédiction. 2e éd. Série Springer en statistique. Springer ; 2009. https://doi.org/10.1007/978-0-387-84858-7.

Blanche P, Proust-Lima C, Loubère L, Berr C, Dartigues JF, Jacqmin-Gadda H. Quantification et comparaison de la précision prédictive dynamique des modèles conjoints pour le marqueur longitudinal et le temps jusqu'à l'événement en présence de censure et de risques concurrents. Biométrie. 2015;71(1):102–13. https://doi.org/10.1111/biom.12232.

Article PubMed Google Scholar

Schoop R, Beyersmann J, Schumacher M, Binder H. Quantification de la précision prédictive des modèles de délai avant événement en présence de risques concurrents. Biom J. 2011;53(1):88–112. https://doi.org/10.1002/bimj.201000073.

Article PubMed Google Scholar

Blanche P, Dartigues JF, Jacqmin-Gadda H. Estimation et comparaison des aires dépendantes du temps sous les courbes caractéristiques de fonctionnement du récepteur pour les temps d'événements censurés avec des risques concurrents. Stat Med. 2013;32(30):5381–97. https://doi.org/10.1002/sim.5958.

Article PubMed Google Scholar

Graf E, Schmoor C, Sauerbrei W, Schumacher M. Assessment and comparison of prognostic classification schemes for survival data. Stat Med. 1999;18(17-18):2529–2545. http://www.ncbi.nlm.nih.gov/pubmed/10474158. 3.0.CO;2-5">https://doi.org/10.1002/(SICI)1097-0258(19990915/30)18:17/18<2529::AID-SIM274>3.0.CO;2-5.

Steyerberg EW, Vickers AJ, Cook NR, Gerds T, Gonen M, Obuchowski N, et al. Évaluation de la performance des modèles de prédiction : un cadre pour certaines mesures traditionnelles et nouvelles. Épidémiologie. 2010;21(1):128–138. https://pubmed.ncbi.nlm.nih.gov/20010215/. https://doi.org/10.1097/EDE.0b013e3181c30fb2.

Gerds TA, Andersen PK, Kattan MW. Courbes d'étalonnage pour les modèles de prédiction des risques en présence de risques concurrents. Stat Med. 2014;33(18):3191–203. https://doi.org/10.1002/sim.6152.

Article PubMed Google Scholar

Kantidakis G, Biganzoli E, Putter H, Fiocco M. Une étude de simulation pour comparer les performances prédictives des réseaux de neurones de survie avec les modèles Cox pour les données d'essais cliniques. Comput Math Methods Med. 2021;2021:1–15. https://doi.org/10.1155/2021/2160322.

Article Google Scholar

Wolbers M, Koller MT, Witteman JCM, Steyerberg EW. Modèles pronostiques avec méthodes à risques concurrents et application à la prédiction du risque coronarien. Épidémiologie. 2009;20(4):555–61. https://doi.org/10.1097/EDE.0b013e3181a39056.

Article PubMed Google Scholar

Wolbers M, Blanche P, Koller MT, Witteman JCM, Gerds TA. Concordance pour les modèles pronostiques avec des risques concurrents. Biostatistique. 2014;15(3):526–39. https://doi.org/10.1093/biostatistics/kxt059.

Article PubMed PubMed Central Google Scholar

Blanche P, Kattan MW, Gerds TA. Le c-index n'est pas adapté à l'évaluation des risques prédits à l'année t. Biostatistique. 2019;20(2):347–57. https://doi.org/10.1093/biostatistics/kxy006.

Article PubMed Google Scholar

Tullio A, Magli A, Moretti E, Valent F. Pourquoi devrions-nous nous occuper du biais de risque concurrent dans l'analyse de la survie : Un essai de phase II sur le profil de toxicité de la radiothérapie pour le cancer de la prostate. Rep Pract Oncol Radiother. 2019;24(6):511–519. https://doi.org/10.1016/j.rpor.2019.08.001.

Van Der Ploeg T, Austin PC, Steyerberg EW. Les techniques de modélisation modernes sont gourmandes en données : une étude de simulation pour prédire les points finaux dichotomiques. Méthodologie BMC Med Res. 2014;14(1):1–13. https://doi.org/10.1186/1471-2288-14-137.

Article Google Scholar

Riley RD, Ensor J, Snell KIE, Harrell FE, Martin GP, ​​Reitsma JB, et al. Calcul de la taille d'échantillon requise pour développer un modèle de prédiction clinique. BMJ. 2020;368(mars):1–12. https://doi.org/10.1136/bmj.m441.

Article Google Scholar

Alaa AM, Van Der Schaar M. Processus gaussiens multitâches profonds pour l'analyse de la survie avec des risques concurrents. Adv Neural Inf Process Syst. 2017;2326–2334. http://medianetlab.ee.ucla.edu/papers/Alaa-Deep-Competing-Risk.pdf.

Bellot A, van der Schaar M. Modèle de mélange bayésien à base d'arbres pour les risques concurrents. Int Conf Artif Intell Stat PMLR 2018. 2018;910–918. http://proceedings.mlr.press/v84/bellot18a/bellot18a.pdf.

Nagpal C, Li X, Dubrawski A. Machines de survie en profondeur : régression de survie entièrement paramétrique et apprentissage de la représentation pour les données censurées avec des risques concurrents. IEEE J Biomed Health Inf. 2021;25(8):3163–75. https://doi.org/10.1109/JBHI.2021.3052441.

Article Google Scholar

Dhiman P, Ma J, Navarro CA, Speich B, Bullock G, Damen JA, et al. Les rapports sur les modèles de prédiction clinique pronostique basés sur des méthodes d'apprentissage automatique en oncologie doivent être améliorés. J Clin Epidémiol. 2021;138:60–72. https://doi.org/10.1016/j.jclinepi.2021.06.024.

Article PubMed PubMed Central Google Scholar

Nicolaie MA, van Houwelingen JC, de Witte TM, Putter H. Prédiction dynamique par repérage dans les risques concurrents. État méd. 2013;32(12):2031–47. https://doi.org/10.1002/sim.5665.

Article CAS PubMed Google Scholar

Télécharger les références

Cette publication a été soutenue par un don de Kom Op Tegen Kanker (Debout contre le cancer), la société flamande de lutte contre le cancer de Belgique. Les auteurs tiennent à remercier les membres du groupe d'étude sur les soins personnalisés du SARcome (PERSARC) pour la fourniture des données utilisées dans cet article.

Ibtissam Acem, Will Aston, Han Bonenkamp, ​​​​Ingrid ME Desar, Peter C Ferguson, Marta Fiocco, Hans Gelderblom, Anthony M Griffin, Dirk J Grünhagen, Rick L Haas, Andrew J Hayes, Lee M Jeys, Johnny Keller, Minna K Laitinen, Andreas Leithner, Katja Maretty-Kongstad, Rob Pollock, Anja Rueten-Budde, Myles Smith, Maria AS molle, Emelie Styring, Joanna Szkandera, Per-Ulf Tunn, Jos A van der Hage, Robert J van Ginkel, Winan J van Houde, Veroniek van Praag, Michiel van de Sande, Kees Verhoef, Madeleine Willegger, Reinard Windhager, Jay S Wunder, Olga Zaikova.

Le travail de Georgios Kantidakis en tant que boursier au siège de l'EORTC a été soutenu par une subvention du groupe des tissus mous et des sarcomes osseux de l'EORTC et du département d'oncologie médicale du Leiden University Medical Center (LUMC). Les sources de financement n'ont joué aucun rôle dans la conception de l'étude et la collecte, l'analyse et l'interprétation des données ou la préparation du manuscrit.

Institut mathématique (MI) Université de Leiden, Niels Bohrweg 1, 2333 CA, Leiden, Pays-Bas

Georgios Kantidakis et Marta Fiocco

Département des sciences des données biomédicales, Section des statistiques médicales, Centre médical universitaire de Leiden (LUMC), Albinusdreef 2, 2333 ZA, Leiden, Pays-Bas

George Kantidakis, Hein Putter et Martha Fiocco

Département des statistiques, Siège de l'Organisation européenne pour la recherche et le traitement du cancer (EORTC), Ave E. Mounier 83/11, 1200, Bruxelles, Belgique

Georgios Kantidakis & Saskia Lithier

Centre d'essais et de données, Centre d'oncologie pédiatrique Princess Máxima (PMC), Heidelberglaan 25, 3584 CS, Utrecht, Pays-Bas

Marthe Bow

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

MF a rédigé une proposition pour enquêter sur les données. GK et MF ont conçu et conçu l'étude. GK a effectué l'analyse statistique. GK, HP, SL et MF ont interprété les résultats. GK a rédigé le manuscrit et HP, SL et MF l'ont révisé de manière critique. Tous les auteurs ont lu et approuvé la version finale.

Correspondance à Georgios Kantidakis.

L'approbation éthique de cette étude a été annulée par le comité d'examen institutionnel du département d'orthopédie du centre médical de l'université de Leiden, car les données cliniques ont été recueillies à partir de dossiers médicaux et ont été pseudo-anonymisées. Tous les participants ont fourni un consentement éclairé écrit dans les études originales. Les recherches ont été menées conformément à la Déclaration d'Helsinki.

N'est pas applicable.

Les auteurs ne déclarent aucun intérêt concurrent.

Springer Nature reste neutre en ce qui concerne les revendications juridictionnelles dans les cartes publiées et les affiliations institutionnelles.

Fichier supplémentaire 1.

Fichier supplémentaire 2.

Fichier supplémentaire 3.

Libre accès Cet article est sous licence Creative Commons Attribution 4.0 International, qui autorise l'utilisation, le partage, l'adaptation, la distribution et la reproduction sur tout support ou format, à condition que vous accordiez le crédit approprié à l'auteur ou aux auteurs originaux et à la source, fournissez un lien vers la licence Creative Commons et indiquez si des modifications ont été apportées. Les images ou tout autre matériel de tiers dans cet article sont inclus dans la licence Creative Commons de l'article, sauf indication contraire dans une ligne de crédit au matériel. Si le matériel n'est pas inclus dans la licence Creative Commons de l'article et que votre utilisation prévue n'est pas autorisée par la réglementation légale ou dépasse l'utilisation autorisée, vous devrez obtenir l'autorisation directement du détenteur des droits d'auteur. Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by/4.0/. La renonciation Creative Commons Public Domain Dedication (http://creativecommons.org/publicdomain/zero/1.0/) s'applique aux données mises à disposition dans cet article, sauf indication contraire dans une ligne de crédit aux données.

Réimpressions et autorisations

Kantidakis, G., Putter, H., Litière, S. et al. Modèles statistiques versus machine learning pour les risques concurrents : développement et validation de modèles pronostiques. BMC Med Res Methodol 23, 51 (2023). https://doi.org/10.1186/s12874-023-01866-z

Télécharger la citation

Reçu : 15 septembre 2022

Accepté : 13 février 2023

Publié: 24 février 2023

DOI : https://doi.org/10.1186/s12874-023-01866-z

Toute personne avec qui vous partagez le lien suivant pourra lire ce contenu :

Désolé, aucun lien partageable n'est actuellement disponible pour cet article.

Fourni par l'initiative de partage de contenu Springer Nature SharedIt

PARTAGER