Das Buch Multimodal Emotion Recognition Using Deep Learning Networks befasst sich mit der Verbesserung der Emotionserkennung durch die Kombination mehrerer Datenquellen (Modalitäten) wie Gesichtsausdrücke EEG und physiologische Signale. Deep-Learning-Modelle werden verwendet um Merkmale aus jeder Modalität zu extrahieren und Fusionstechniken (wie der Late-Fusion-Ansatz) integrieren diese Merkmale um genauere Emotionsvorhersagen zu machen. Die Studie zeigt dass die multimodale Fusion die Leistung im Vergleich zu Systemen mit nur einer Modalität erheblich steigert was die Bedeutung der Kombination von komplementären emotionalen Hinweisen unter Verwendung fortschrittlicher neuronaler Netzwerkarchitekturen unterstreicht.
Piracy-free
Assured Quality
Secure Transactions
Delivery Options
Please enter pincode to check delivery time.
*COD & Shipping Charges may apply on certain items.