В чем разница? Почему лучше использовать Gradient Boosting вместо Adaboost?

В чем разница? Почему лучше использовать Gradient Boosting вместо Adaboost?

Gradient Boosting действительно во многих случаях работает лучше, чем Adaboost, но это еще не значит, что он категорически лучше.

Основное отличие: в Adaboost на каждой итерации для тренировки мы выбираем объекты, которые минимизируют ошибку, а в Gradient Boosting предпочтение отдается объектам, которые минимизируют градиент функции ошибки, а не саму ошибку.

Вот неплохая статья про Gradient Boosting: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3885826/

Gradient Boosting действительно во многих случаях работает лучше, чем Adaboost, но это еще не значит, что он категорически лучше. Основное отличие: в Adaboost на каждой итерации для тренировки мы выбираем объекты, которые минимизируют ошибку, а в Gradient Boosting предпочтение отдается объектам, которые минимизируют градиент функции ошибки, а не саму ошибку. Вот неплохая статья про Gradient Boosting: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3885826/
205
просмотров
1
ответов
1
подписчики
Предпросмотр
введите как минимим 10 characters
WARNING: You mentioned %MENTIONS%, but they cannot see this message and will not be notified
Сохраняю...
Сохранено
Все темы будут удалено ?
Сохранены неопубликованные черновики. Нажмите для продолжения редактирования
Discard draft