Đến nội dung


Chú ý

Nếu các bạn đăng kí thành viên mà không nhận được email kích hoạt thì hãy kiểm tra thùng thư rác (spam). Nếu không biết cách truy cập vào thùng thư rác thì các bạn chịu khó Google hoặc đăng câu hỏi vào mục Hướng dẫn - Trợ giúp để thành viên khác có thể hỗ trợ.


Hình ảnh
- - - - -

Bài toán dự đoán trong trí tuệ nhân tạo


  • Please log in to reply
Chủ đề này có 1 trả lời

#1 Mr handsome ugly

Mr handsome ugly

    Trung sĩ

  • Thành viên
  • 192 Bài viết
  • Giới tính:Nam
  • Đến từ:thpt Nguyễn Công trứ tphcm
  • Sở thích:xyz

Đã gửi 16-01-2021 - 09:59

Trong tin học hay cụ thể hơn là trong trí tuệ nhân tạo ; bài toán "dự đoán"(prediction) luôn rất được quan tâm và hôm nay em có một vấn đề tương tự như vậy để mọi người cùng ngẫm nghĩ. Bài toán của em phát biểu như sau: cho n điểm trên một mặt phẳng ; hãy tìm ra phương pháp tổng quát để tìm ra đường thẳng sao cho tổng khoảng cách từ n điểm trên đến đường thẳng đó là nhỏ nhất. Bây giờ ta hãy cố định số lượng cũng như vị trí của n điểm đó lại ; kết hợp với phương pháp tọa độ trong hình học oxy ; ta được tổng khoảng cách của n điểm đến đường thẳng được viết dưới công thức như sau:$\frac{\left | ax_{1}+by_{1}+c \right |}{\sqrt{a^{2}+b^{2}}}$ $+\frac{\left | ax_{2}+by_{2}+c \right |}{\sqrt{a^{2}+b^{2}}}+...\frac{\left | ax_{n}+by_{n}+c \right |}{\sqrt{a^{2}+b^{2}}}$  hay gọn hơn là $\sum \frac{\left | ax_{i}+by_{i}+c \right |}{\sqrt{a^{2}+b^{2}}}$ với i=1;2;..;n và đường thẳng trên có dạng $ax+by+c=0$ còn  $(x_{i};y_{i})$ là tọa độ của điểm thứ i trong n điểm trên 

Như bậy bài toán trở thành tìm phương pháp tổng quát để tìm GTNN của $\sum \frac{\left | ax_{i}+by_{i}+c \right |}{\sqrt{a^{2}+b^{2}}}$ với $x_{i};y_{i}$ đã được xác định 


Bài viết đã được chỉnh sửa nội dung bởi Mr handsome ugly: 16-01-2021 - 10:05


#2 perfectstrong

perfectstrong

    $LOVE(x)|_{x =\alpha}^\Omega=+\infty$

  • Quản trị
  • 4167 Bài viết
  • Giới tính:Nam
  • Sở thích:Đàn guitar, ngắm người mình yêu, học toán

Đã gửi 16-01-2021 - 16:52

Điều bạn đang nói chính là Linear Regression.

https://en.wikipedia...near_regression

https://en.wikipedia...r_least_squares


Luôn yêu để sống, luôn sống để học toán, luôn học toán để yêu!!! :D

$$\text{LOVE}\left( x \right)|_{x = \alpha}^\Omega = + \infty $$




I'm still there everywhere.




0 người đang xem chủ đề

0 thành viên, 0 khách, 0 thành viên ẩn danh