Cross-Entropy Loss: Cos'è e Come Funziona?
📌 Cross-Entropy Loss: Cos'è e Come Funziona?
La Cross-Entropy Loss è una funzione di perdita usata nei modelli di Deep Learning per la classificazione, sia binaria che multi-classe.
🔢 Formula della Cross-Entropy Loss
Classificazione Binaria
Per problemi con due classi (0 o 1), la funzione è:
L = - [ y log(ŷ) + (1 - y) log(1 - ŷ) ]
- y → Valore reale (0 o 1).
- ŷ → Probabilità predetta per la classe positiva.
Classificazione Multi-Classe
Se ci sono C classi, la formula diventa:
L = - Σ [ yi log(ŷi) ]
- yi è 1 solo per la classe corretta, 0 per le altre.
- ŷi è la probabilità predetta per la classe i-esima.
📊 Esempio Pratico
Immaginiamo di dover classificare un'immagine tra 3 categorie: **Gatto, Cane, Uccello**.
- 🐶 Il valore reale è Cane → y = [0,1,0]
- 📊 Il modello prevede: ŷ = [0.2, 0.5, 0.3]
La Cross-Entropy Loss sarà:
L = - log(0.5) = 0.693
📌 Dove si Usa la Cross-Entropy Loss?
- ✅ Reti neurali convoluzionali (CNNs) per la classificazione di immagini.
- ✅ Modelli di NLP per analisi del testo e sentiment analysis.
- ✅ Object Detection (YOLO, SSD) per assegnare categorie agli oggetti rilevati.
Grazie alla Cross-Entropy Loss, i modelli imparano a migliorare la loro capacità di assegnare probabilità corrette alle classi giuste! 🚀
Commenti
Posta un commento