Chào các bác, chả hiểu sao em kiểm tra lighthouse thì thấy bị quả này. mặc dù file robot của em hoàn toàn ổn? Có bác nào biết tại sao không ạ? giúp em với.
Anh xem qua ảnh thì thấy file robots của em không ổn tí nào. Nó không đúng định dạng file robots em nhé. https://developers.google.com/search/docs/advanced/robots/create-robots-txt?hl=vi Sau đây là một tệp robots.txt đơn giản chứa hai quy tắc: User-agent: Googlebot Disallow: /nogooglebot/ User-agent: * Allow: / Sitemap: http:// www. example. com/sitemap.xml Sau đây là ý nghĩa của tệp robots.txt đó: Tác nhân người dùng có tên Googlebot không được phép thu thập dữ liệu trong mọi URL bắt đầu bằng http:// example. com/nogooglebot/. Mọi tác nhân người dùng khác đều được phép thu thập dữ liệu trên toàn bộ trang web. Quy tắc này có thể được bỏ qua mà kết quả vẫn như vậy. Lý do là theo mặc định, mọi tác nhân người dùng đều được phép thu thập dữ liệu trên toàn bộ trang web. Tệp sơ đồ trang web của trang web này nằm tại http:// www. example. com/sitemap.xml.
Nhìn thấy nó sai sai kiểu gì. Chỗ sitemap bình thường phải xuống dòng rồi sitemap chứ nhỉ. Chỉnh lại thử nếu vẫn bị lôic kiểm tra bảng mã thử