Trang chủ Các hoạt động Bài giảng đại chúng của GS. Vũ Hà Văn: Lý thuyết nhiễu...

Bài giảng đại chúng của GS. Vũ Hà Văn: Lý thuyết nhiễu loạn của các ma trận hạng thấp

GS. Vũ Hà Văn trình bày Bài giảng đại chúng “Lý thuyết nhiễu loạn của các ma trận hạng thấp” (Perturbation theory of low rank matrices) trong Chương trình Trường hè quốc tế năm 2023 với chủ đề “Lý thuyết xác suất trong không gian nhiều chiều và ứng dụng”. Chương trình dành cho các học viên cao học, nghiên cứu sinh và các nhà nghiên cứu trẻ quan tâm đến lĩnh vực Toán học, Xác suất thống kê và Khoa học dữ liệu.

Đơn vị tổ chức và phối hợp: Viện Nghiên cứu Dữ liệu Lớn, Quỹ Đổi mới Sáng tạo Vingroup (VINIF), Trung tâm Nghiên cứu và Đào tạo Toán học Quốc tế UNESCO (ICRTM), Viện Toán học – VAST.

Thông tin chi tiết về bài giảng:

• Chủ đề: Perturbation theory of low rank matrices – Lý thuyết nhiễu loạn của các ma trận hạng thấp.

• Thời gian: 9:00 – 11:30 Thứ hai, ngày 19/06/2023.

• Địa điểm: Hội trường 301, Tòa nhà A5, Viện Toán học, Viện Hàn lâm Khoa học Công nghệ Việt Nam, số 18B Hoàng Quốc Việt, Cầu Giấy, Hà Nội.

• Hình thức: Trực tiếp và trực tuyến

Bài giảng cũng được phát livestream trực tuyến trên các Fanpage dưới đây:

Fanpage của Viện Toán học Việt Nam – VAST: https://www.facebook.com/vientoanhoc

Fanpage của Viện Nghiên cứu Dữ liệu lớn (Vinbigdata): https://www.facebook.com/VinBigData

Fanpage của Quỹ Đổi mới sáng tạo Vingroup (VINIF): https://www.facebook.com/vinif.org

Có thể là hình ảnh về 1 người và văn bản cho biết 'INTERNATIONAL SCHOOL HIGH DIMENSIONAL PROBABILITY AND APPLICATIONS Prof. Vu Ha Van Yale University, USA & VinBigdata, Vietnam Public lecture: Perturbation theory of low rank matrices 9h-11h30, June 19, 2023 Hall 301, Building A5, Institute of Mathematics VINBIGDATA VINIF fRM Hongi'

Thông tin diễn giả:

– GS. Vũ Hà Văn là Giám đốc Khoa học VinBigData, đồng thời đang công tác tại ĐH Yale, Hoa Kỳ với vị trí Giáo sư Toán học.

– GS tốt nghiệp chuyên ngành toán lý thuyết năm 1994 tại Đại học Eotvos Lorand, Budapest, Hungary. Từ 1994 đến 1998, GS làm luận án tiến sĩ tại Đại học Yale, Hoa Kỳ.

– GS từng nghiên cứu, giảng dạy tại IAS – Viện Nghiên cứu cao cấp, Princeton, Microsoft Research, Đại học UC San Diego và Đại học Rutgers, Hoa Kỳ; từ năm 2011 đến nay là GS Khoa toán của Đại học Yale.

– GS đã được trao các giải thưởng NSF và Sloan Fellowship, giải Polya của Hiệp hội Toán ứng dụng và Công nghiệp – SIAM (2008) và giải Fulkerson của Hội toán học Mỹ – AMS (2012) cho các công trình nghiên cứu về xác suất và tổ hợp.

– GS là thành viên danh dự của Hội toán học Mỹ (AMS) và Viện thống kê toán học thế giới (IMS).

– Năm 2020, GS được bầu chọn trở thành Hội viên danh dự của Hiệp hội Toán thống kê (Institute of Mathematical Statistics).

Abstract:

• Perturbation theory is an integral part of applied mathematics and statistics. One of the main goals if this is to theory is to answer the question: How much does a spectral parameter (such as the leading eigenvector or eigenvalue) of a matrix change, subjected to a perturbation to the entries?

• Answers to this question, such as Weyl inequality or Davis-Kahan sine theorem, are among the most applied mathematical results, even more so in recent years when the role of statistics has become so dominant in all fields of science. (Think about Principal component analysis or Google Page rank computation, for instance.)

• A pervasive assumption about real data (in form of a matrix) is that it has low rank. This is appearing many kinds of data, from movie preferences, text documents, to survey data, medical records, and genomics. This motivates us to build up a study of perturbation theory for low rank matrices, which I have been working on in the last 15 years.

• In this mini-course, I will first give a brief survey to current state of the art of the project. Next, I am going to discuss applications in many fields: clustering, data completion (Netflix type problems), numerical linear algebra, learning mixtures of distributions, and privacy. There will be a number of directions for further research, and also several interesting connections to random matrix theory.

BÀI MỚI NHẤT

Phát triển phương tiện tự hành dưới nước AUV phục vụ hỗ trợ các tác vụ ngầm và nghiên cứu khoa học biển

Tiềm năng kinh tế biển Việt Nam Việt Nam có hơn 3.260 km bờ biển với hơn 4.000 hòn đảo, bãi đá ngầm lớn nhỏ,...

Mạng nơ-ron tăng vọt trong hệ thống Neuromorphic hiện đại (Phần 3): Phần cứng

Hệ thống phần cứng ở mức caoHệ thống phần cứng ở mức cao được chia thành các triển khai mạch tương tự, mạch số...

Mạng nơ-ron tăng vọt trong hệ thống Neuromorphic hiện đại (Phần 2)

Một trong những câu hỏi quan trọng liên quan đến tính toán neuromorphic là sử dụng mô hình mạng nơ-ron nào? Mô hình mạng nơ-ron xác định những thành phần nào tạo nên mạng, cách các thành phần đó hoạt động và tương tác. Ví dụ, các thành phần phổ biến của mô hình mạng nơ-ron là các nơ-ron và khớp thần kinh (synapse), lấy cảm hứng từ các mạng nơ-ron sinh học. Khi xác định mô hình mạng nơ-ron, người ta cũng phải xác định các mô hình cho từng thành phần (ví dụ: mô hình nơ-ron và mô hình synapse); các mô hình thành phần chi phối cách thành phần đó hoạt động.

Mạng nơ-ron tăng vọt trong hệ thống Neuromorphic hiện đại (Phần 1)

Mạng nơ-ron tăng vọt (Spiking Neural Network – SNN) được giới thiệu bởi các nhà nghiên cứu tại Đại học Heidelberg và Đại học Bern. Mạng nơ-ron tăng vọt bắt chước gần giống mạng nơ-ron tự nhiên, có khả năng xử lý thông tin theo thời gian thực và tiết kiệm năng lượng. SNN sử dụng các xung điện (spikes) để truyền thông tin giữa các nơ-ron. Thay vì truyền tín hiệu liên tục như các mạng nơ-ron truyền thống, SNN truyền các xung điện rời rạc tại các thời điểm cụ thể khi điện thế màng của nơ-ron vượt qua một ngưỡng nhất định. SNN lấy một tập hợp các xung tăng vọt làm ngõ vào và tạo ra một tập hợp các xung tăng vọt làm ngõ ra (một loạt các xung tăng vọt thường được gọi là các chuỗi xung tăng vọt). Tế bào thần kinh kích hoạt khi điện thế màng chạm ngưỡng, gửi tín hiệu đến các tế bào thần kinh lân cận, làm tăng hoặc giảm điện thế của chúng để đáp lại tín hiệu. Các thành phần quan trọng của mạng SNN là mô hình nơ-ron thần kinh, khớp thần kinh (synapse), STDP (spike-timing-dependent plasticity), v.v.

BÀI ĐỌC NHIỀU

Khái quát về mô hình dữ liệu quan hệ

Phần lớn hệ thống cơ sở dữ liệu hiện nay đều được xây dựng bằng mô hình dữ liệu quan hệ. Vậy mô hình...

Supervised Learning và Unsupervised Learning: Khác biệt là gì?

Supervised learning (Học có giám sát) và Unsupervised learning (Học không giám sát) là hai trong số những phương pháp kỹ thuật cơ bản...

Transformer Neural Network – Mô hình học máy biến đổi thế giới NLP

Năm 2017, Google công bố bài báo “Attention Is All You Need” thông tin về Transformer như tạo ra bước ngoặt mới trong lĩnh...

Khái quát về Data Pipeline

Dữ liệu là chìa khóa trong việc khám phá tri thức sâu rộng, nâng cao hiệu quả quy trình và thúc đẩy đưa ra...