Regularized Mixtures of Experts in High-Dimensional Data
Mixture of experts (MoE) models are successful neural-network architectures for modeling heterogeneous data in many machine learning problems including regression, clustering and classification. The model learning is in general performed by maximum likelihood estimation (MLE). For high-dimensional...
Đã lưu trong:
Những tác giả chính: | Faicel, Chamroukhi, Huỳnh, Bảo Tuyên |
---|---|
Định dạng: | Conference paper |
Ngôn ngữ: | English |
Được phát hành: |
2023
|
Những chủ đề: | |
Truy cập trực tuyến: | https://scholar.dlu.edu.vn/handle/123456789/2335 |
Các nhãn: |
Thêm thẻ
Không có thẻ, Là người đầu tiên thẻ bản ghi này!
|
Thư viện lưu trữ: | Thư viện Trường Đại học Đà Lạt |
---|
Những quyển sách tương tự
Những quyển sách tương tự
-
Estimation and Feature Selection in High-Dimensional Mixtures-of-Experts Models
Bỡi: Huỳnh, Bảo Tuyên
Được phát hành: (2023) -
Regularised maximum-likelihood inference of mixture of experts for regression and clustering
Bỡi: Huỳnh, Bảo Tuyên, et al.
Được phát hành: (2023) -
Mixture Rasch models with joint maximum likelihood estimation /
Bỡi: Willse, John T. -
Modeling tuberculosis dynamics with the presence of hyper-susceptible individuals for Ho Chi Minh City from 1996 to 2015
Bỡi: Dao, Nguyen Vinh - Influence function for robust phylogenetic reconstructions /