Support Vector Regression (SVR) è un algoritmo di apprendimento supervisionato utilizzato per la regressione. Si basa sui principi delle Support Vector Machines (SVM) e presenta diverse caratteristiche distintive:
Funzione di costo: A differenza della regressione lineare, SVR cerca di trovare una funzione che si discosta al massimo da un certo valore (ε) dai dati reali. Questo valore è definito come il margine ε-insensibile. Questo concetto è discusso in dettaglio nella pagina https://it.wikiwhat.page/kavramlar/epsilon-duyarli%20kayıp%20fonksiyonu.
Margine ε-insensibile: I punti dati che si trovano all'interno del margine ε non contribuiscono alla funzione di costo, rendendo il modello più robusto agli outlier.
Kernel Trick: Come per le SVM per la classificazione, SVR può utilizzare il "kernel trick" per mappare i dati in spazi dimensionali superiori e risolvere problemi non lineari. I kernel comuni includono:
Parametri importanti:
Applicazioni: SVR è utilizzato in una varietà di applicazioni, tra cui:
Vantaggi:
Svantaggi:
Per una comprensione più approfondita dei principi alla base delle SVM, consultare https://it.wikiwhat.page/kavramlar/destek%20vektör%20makineleri.
Ne Demek sitesindeki bilgiler kullanıcılar vasıtasıyla veya otomatik oluşturulmuştur. Buradaki bilgilerin doğru olduğu garanti edilmez. Düzeltilmesi gereken bilgi olduğunu düşünüyorsanız bizimle iletişime geçiniz. Her türlü görüş, destek ve önerileriniz için iletisim@nedemek.page