L'intelligence artificielle (IA) pilotée par des réseaux neuronaux est cruciale dans de nombreuses applications telles que les systèmes de recommandation la traduction linguistique les médias sociaux les chatbots les correcteurs orthographiques etc. Cependant ces réseaux sont souvent critiqués pour être des boîtes noires ce qui soulève des inquiétudes quant à leur explicabilité en particulier dans des domaines sensibles tels que les soins de santé la conduite autonome etc. Les méthodes existantes pour améliorer l'explicabilité telles que l'importance des caractéristiques manquent souvent de clarté et d'interprétabilité. Pour remédier à ce problème le réseau neuronal orienté objet pour une meilleure explicabilité (OONNIE) a été mis au point. OONNIE utilise la modélisation orientée objet pour combiner la perte et le poids de connexion afin de calculer l'importance des caractéristiques et intègre des règles spécifiques au domaine grâce à l'extensibilité de la POO. Le modèle met l'accent sur la transparence algorithmique en détaillant chaque étape de la formation. Évalué sur les fonctions XOR et XNOR OONNIE montre des résultats prometteurs en termes d'importance des caractéristiques de réduction plus rapide des pertes et d'amélioration des prédictions après l'intégration des règles du domaine. Il s'agit d'une contribution significative à l'IA explicable qui fait d'OONNIE un outil précieux pour le développement de systèmes d'IA fiables.
Piracy-free
Assured Quality
Secure Transactions
Delivery Options
Please enter pincode to check delivery time.
*COD & Shipping Charges may apply on certain items.