ทีมงาน BT ได้มีโอกาสอัปเดตเรื่อง SEO ล่าสุดจาก Google ในงาน Search Central Live Bangkok เมื่อวันที่ 9 สิงหาคม 2024 ที่คนทำเว็บทุกคนควรรู้
The post สรุปงาน Search Central Live Bangkok ตำราติดการค้นหาในเว็บที่ Google ออกมาพูดเอง appeared first on BT beartai.
ทีมงาน BT ได้มีโอกาสอัปเดตเรื่อง SEO ล่าสุดจาก Google ในงาน Search Central Live Bangkok เมื่อวันที่ 9 สิงหาคม 2024 ที่คนทำเว็บทุกคนควรรู้ จึงสรุปมาให้อ่านกัน
เว็บที่กูเกิ้ลชอบ
สร้างเนื้อหาโดยโฟกัสกับมนุษย์
เนื้อหาในเว็บแสดงถึงความเชี่ยวชาญ มีความน่าเชื่อถือ
เนื้อหาและคุณภาพเว็บ เนื้อหาที่เขียนเป็นออริจินัล หรือมีคุณค่ามากกว่าเว็บในกลุ่มเดียวกันไหม
การนำเสนอและโปรดักชัน เช่น ไม่มีโฆษณาในเว็บมารบกวน, หรือเนื้อหาทำมาเพื่อเว็บเดียว ไม่ใช่ทำเนื้อหาเดียวแล้วไปลงหลาย ๆ ที่
สรุปคือพยายามหลีกเลี่ยงเนื้อหาที่สร้างเพื่อ Google โดยเฉพาะ ให้เน้นสร้างเนื้อหาเพื่อมนุษย์
ช่วงแก้ความเข้าใจผิด
วิทยากรทั้ง 4– Google ชอบ subdomain (เช่น buzz.bt.th) มากกว่า sub-directory (เช่น bt.th/buzz) จริงไหม
ตอบ: ไม่ได้ชอบแบบไหนเป็นพิเศษ ทำแบบไหนก็ได้ที่เหมาะสม
ซื้อ backlink ในเว็บอื่น ๆ ไม่ได้ทำให้อันดับใน Google ดีขึ้น อย่างเว็บ Porsche ของนอร์เวย์ ไม่มีลิงก์เลย แต่ก็ได้อันดับดีมาก
ลิงก์คุณภาพต่ำยิงเข้ามาเว็บเรา ไม่เกี่ยวกับอันดับของเราเลย อย่ากังวล
เนื้อหาจาก AI ก็อาจจะได้อันดับดีใน google ได้ ขึ้นอยู่กับคุณภาพของงาน
Google ไม่มีข้อจำกัดเรื่องความยาวเนื้อหา ว่าเขียนยาวไปอันดับจะตก ดูที่คุณภาพเป็นหลัก
อีกเรื่องที่ไม่จริงคือ ซื้อโดเมนเก่าที่มีอายุแล้วหมดอายุแล้ว จะได้ Rank ที่ดี คือเมื่อโดเมนหมดอายุ Google จะพยายามลบ Signal เดิมออก เพราะงั้นก็จะเหมือนโดเมนใหม่ Page Rank ใหม่
โดเมนใหม่ก็สามารถแข่งอันดับกับโดเมนเก่าได้เหมือนกัน เช่น ทำรูปให้ดี ไปติดอันดับในการค้นหารูป ได้ยอดเข้าเว็บเยอะ ก็ทำได้เหมือนกัน
Schema ไม่มีผลต่อ Rank แต่มีผลกับพื้นที่ในหน้าค้นหาที่อาจจะใหญ่ขึ้น
เปรียบเทียบความสำเร็จหลังปรับเว็บ ให้ดูข้อมูลเป็นรายสัปดาห์ เทียบกับสัปดาห์ก่อนหน้านั้น แล้วก็เทียบกับช่วงเดียวกันของเดือนที่แล้ว แล้วดูว่า keyword เปลี่ยนแปลงไปไหม
Google ไม่ได้ให้ความสำคัญกับชื่อ URL เท่าเมื่อก่อนแล้ว เพราะตอนนี้สามารถวิเคราะห์เนื้อหาในหน้าได้แล้ว เพราะฉะนั้นจะตั้ง URL เป็นภาษาไทยหรืออังกฤษก็ได้
ทำยังไงให้ติด SGE (Google Search Generative Experience) ตอบ ตอนนี้ยังไม่มีเอกสารอย่างเป็นทางการออกมา แต่ให้คิดเหมือน Snippet หรือข้อมูลแนะนำที่ Google แสดงเวลาค้นหา ถ้าติดใน Snippet ได้ SGE ก็คล้าย ๆ กัน
เรื่องคุณภาพของเนื้อหาที่สร้างด้วย AI ก็เป็นประเด็นที่ Google ให้ความสำคัญ เราอาจไม่รู้ว่าเนื้อหาที่ดูโครงสร้างดีนี้สร้างด้วย AI แล้วข้อมูลมันผิด เราเลยให้ความสำคัญกับการจัดเว็บที่อยู่ในหมวดข่าวมาก เพราะชื่อของเว็บจะเป็นตัวการันตีเนื้อหาได้
ตอนนี้ Google Crawer ดึงเนื้อหาในรูปแบบมือถือ การกำหนดเว็บให้แสดงบนมือถือให้ถูกต้องจึงเป็นเรื่องสำคัญ
Google มองความเชี่ยวชาญของเว็บเป็นน้ำหนักในการให้อันดับเว็บ เช่น เป็นเว็บข่าว แล้วไปทำอย่างอื่นที่อาจจะไม่เกี่ยว ก็อาจถูกลดน้ำหนัก สิ่งที่ต้องคิดคือทำให้คนรู้ว่าเป็นเนื้อหาแยกกัน Google ไม่ได้ตอบว่าในทางเทคนิคจะเป็นการแยกด้วย Sub domain หรือ Sub Directory หรือยังไง แต่ให้คิดจากความรู้สึกของผู้ใช้ว่าเข้าใจไหมว่าเป็นเนื้อหาแยกกัน
ตำรา SEO ภาษาไทยจากกูเกิ้ล ดีมาก ทุกคนควรอ่าน developers.google.com/search/docs?hl=th
เรื่อง Index หน้าเว็บ
การทำงานของการค้นหาของ Google มี 3 กระบวนการคือ
1. Crawling
2. Indexing
3. Serving
เมื่อ Google รู้ว่ามีเว็บอะไร ก็จะตามลิงก์ไปเก็บเรื่อย ๆ
Crawler คือ Googlebot ซึ่งจะตัดสินใจด้วยตัวเองว่าควรจะดึงข้อมูลบ่อย ดึงเยอะแค่ไหน ความเร็วของเว็บก็มีส่วน คุณภาพเนื้อหาก็มีส่วน ถ้าเซิร์ฟเวอร์มีปัญหาก็จะเข้าน้อยลง
แต่การเข้ามาตรวจบ่อย ไม่ได้แปลว่าอันดับใน Google จะสูงขึ้น
ถ้าใครไม่อยากให้เนื้อหาหลุดไป ก็ใช้ robot.txt เพื่อป้องกันบอต Google มาส่องได้
index ของ Google ใหญ่มาก ใหญ่แบบพิมพ์แล้วไปกลับดวงจันทร์ได้ 12 รอบ
มี keyword แค่ไหนถึงจะดี -> การมี keyword ในหน้าเยอะแล้วดีเป็นความรู้เก่า เอาที่ใช้ปกติ คนอ่านแล้วไม่หงุดหงิด
Meta Keyword สำคัญไหม -> Google ไม่เคยใช้ Meta Keyword
Google เข้าใจรูปภาพแบบทั่ว ๆ ไป คือ AI พิจารณาองค์ประกอบภาพเองได้ เช่น ภาพผู้ชายหน้าบ้าน แต่ถ้าจะเจาะจงกว่านั้น เช่น ผู้ชายชื่ออะไร ก็ต้องใส่คำบรรยายรูป หรือใส่ Alt Attribute เพื่อบอกว่ารูปอะไร
หลังจาก Crawling แล้วก็จะมาจัดกลุ่ม URL ที่ไปหน้าที่มีเนื้อหาซ้ำ Canonical คือตัวแทนกลุ่ม สำหรับหน้าซ้ำ แล้วเก็บเป็นกลุ่ม
เรื่องของ Canonicalหลังจากเก็บข้อมูลแล้วจะเข้าสู่ Index Selection เพื่อดูว่าควรอยู่ใน Index เพื่อให้ค้นเจอไหม อย่างหน้าที่จัดเป็น Canonical จะไม่ถูกค้นเจอ เจอแค่หน้าต้นฉบับ
แล้วถ้าเจอ Discovered – not indexed (คือเจอหน้าแล้ว แต่ Google ไม่ได้ index ไว้) ใน Search Console แล้วจะทำยังไงได้บ้าง ส่วนใหญ่เป็นปัญหาเรื่องคุณภาพหน้า คือหน้านั้นไม่มีคุณภาพดีพอที่จะเก็บหรือนำเสนอผู้ใช้ ก็ต้องแก้ปัญหาคุณภาพหน้า
หลังจาก Index แล้วคือ Serving หรือการส่งข้อมูลให้ผู้ใช้ค้นหา
ถ้าเป็นภาษาไทยจะแบ่งส่วนคำ เพราะคำไทยไม่มีการเว้นวรรค ส่วนถ้าเป็นภาษาอังกฤษจะตัดคำ stopword ออก เช่น of, the แต่ถ้าเป็นคำเฉพาะเช่น the lord of the ring จะเข้าใจว่าเป็นคำเฉพาะ ไม่ได้ตัด
มาถึงตรงนี้ Google ย้ำมากเรื่องคุณภาพของเนื้อหา หลายรอบ
คุณภาพของเนื้อหา
สิ่งที่ขัดใจผู้ใช้ที่สุดคือ Spam กูเกิ้ลคือพยายามตัดเรื่องนี้ออกจากผลการค้นหา
Content Spam มีแบบไหนบ้างCloaking คือซ่อนเนื้อหาสแปมไว้
Doorways ทำเนื้อหาที่หลากหลาย เพื่อกลบเนื้อหาสแปม
Scraped content ไปดูดเนื้อหาเว็บอื่นมา ซึ่งนับเป็นสแปมเพราะไม่ได้สร้างเนื้อหาใหม่
Link SPAM ตรงตัว คือลิงก์หาสแปม
Hacked Content คือโดนแฮก ซึ่งถ้าเจอ Google ก็จะตัดออกจาก index
Core Update มาทีไรเสียวทุกที
Google โฟกัสเรื่อง Helpfulness หรือความเป็นประโยชน์กับคน ให้น้ำหนักกับเรื่องนี้ในการจัด Ranking เว็บ จึงเป็น Core Update ที่มาให้คนทำเว็บตื่นเต้นกันอยู่ตลอด
เพราะ Google พยายามพัฒนาระบบตรวจสอบคุณภาพเนื้อหาให้ดีขึ้นเรื่อย ๆ โดยไม่มีใครได้สิทธิ์พิเศษในผลค้นหา
เมื่อปรับแล้วก็จะมานั่งรีวิวว่าคุณภาพเป็นยังไง (Search Quality Rater Guidelines)
ถ้า Google อัปเดตแล้ว อันดับแย่ลงทำยังไง
ถ้ายอดเว็บตก ตกใจแล้วต้องตั้งสติต้องดูก่อนว่าเราโดนอัปเดตรอบไหนไปทำให้อันดับตกลง
รอบ Spam update การปรับการตรวจสแปม ถ้าโดนจัดเป็นสแปมในการอัปเดตใหม่ อันดับก็ต่ำลง
รอบ Core update อัปเดตการตรวจคุณภาพเนื้อหา อัปเรื่อย ๆ โดยไม่โฟกัสที่เว็บไหนเป็นหลัก
ใช้ส่วนเสริม GSC-guardian ใน Chrome ช่วยตีกรอบใน Google Search Console ได้ว่าช่วงไหนของกราฟ สอดคล้องกับการอัปเดตการค้นหาอะไรได้บ้าง
สรุปคือ ถ้าอันดับลด ลองค้นคำที่เคยได้ดี แล้วดูเว็บที่อันดับกลายเป็นสูงกว่าเรา ดูว่าเค้าทำยังไง (Google ยอมบอกแค่นี้)
การใช้ Google Trends สำหรับ SEO
เวลาค้นให้เลือก Term ให้ถูกด้วย เช่น Alphabet เป็นบริษัทหรือตัวอักษร
ถ้าค้นคำใน Google Trends แล้วไม่มีกราฟขึ้น กราฟตกเป็นศูนย์ ก็อย่าใช้คำนี้ คนสนใจน้อย
การควบคุมการค้นหาใน Google Trends คือ” ” ใช้เพื่อเจาะจงคำ, – ใช้ลบคำออก, + คือ OR
Google Trends สามารถค้น keyword เทียบกับเวลาในอดีตได้ โดยใส่ filter ปีลงไป ใส่เป็นประเทศก็ได้ จะได้หาแนวโน้มได้ว่าช่วงนี้ของแต่ละปี keyword นี้จะกลับมาไหม
นอกจากนี้ยังสามารถเปลี่ยนจาก Web Search เป็น YouTube search เพื่อดูเทรนด์ค้นหาของ YouTube ใน Trends ก็ได้
ฟีเจอร์ของ Google Search
Knowledge Panel (เช่น กล่องเวลาค้นหาที่บอกว่าคนที่เราค้นหาเป็นใคร) ถ้าเป็นเจ้าของเรื่องนั้นจริง ๆ ก็ใช้บัญชีส่วนตัวอ้างสิทธิ์และแก้ไขข้อมูลได้
ถ้าเป็นธุรกิจก็ใช้ Google Business Profile เพิ่มพวกสถานที่ให้ค้นเจอใน Google Maps และใส่เว็บหรือข้อมูลอื่น ๆ ได้ ซึ่งถ้าข้อมูลครบถ้วนจะได้ความน่าเชื่อถือมากจากผู้ใช้
Structured Data ทำให้ Google เข้าใจเนื้อหามากขึ้น เช่น Product Snippet ถ้าทำ Structured Data ลงเว็บ Google จะนำไปแสดงในผลการค้นหาได้สวยขึ้น ดูเด่นขึ้น
อย่าง Structured Data แบบ NewsArticle ทำให้ Google เข้าใจว่าเป็นข่าวมากขึ้น
Search Console สามารถดูเรื่อง Rich snippet ได้แล้ว ปรับเว็บแล้ว Google ดูดข้อมูล Rich snippet ไหม ก็ดูได้
Google กับวิดีโอ
Google กำลังต้องการวิดีโอคุณภาพสูง และตรงกับความต้องการของผู้ใช้
สามารถใช้ตัวแปร Site: เพื่อเจาะเฉพาะเว็บเรา และดูที่แท็บ Video ใน Google เพื่อดูว่า index วิดีโอไปเท่าไหร่
ฟีเจอร์ใหม่คือต่อไปจะสามารถค้นหาเฉพาะจุด ๆ หนึ่งในวิดีโอได้แล้ว
Google ชอบเพจที่เป็นวิดีโอโดยเฉพาะ ไม่ต้องรวมเนื้อหาหลาย ๆ อย่างในหน้าวิดีโอ หน้าวิดีโอคือมีแต่วิดีโอที่เด่น แล้วก็ประกอบเนื้อหาของวิดีโอนั้นก็พอ
แล้วถ้าเป็นวิดีโอจากเพจที่เสียเงิน ก็สามารถเขียนข้อมูลให้ Google เข้าถึงวิดีโอได้ เพื่อเอาไปทำดัชนี คนจะได้หาเจอ แล้วพอกดเข้ามาจะเจอหน้าเก็บเงินของเว็บก็ได้
ใน Search Console มีรายงาน Video Indexing ให้ดูด้วย
เว็บที่มีหลายภาษา
การให้น้ำหนักการจัดว่าเว็บจะอยู่ประเทศไทยหน้าเว็บต่างภาษา Google แนะนำควรจะใช้ URL ที่ต่างกันไปเลย
ใช้ฟังก์ชัน hreflang ในโค้ดเว็บ เพื่อบอก Google ว่าเป็นหน้าเดียวกัน แต่ต่างภาษา และต้องติดในทุกหน้าที่ต่างภาษากัน เพื่อยืนยันว่าเราเป็นเจ้าของทั้งหมด
หรือใส่ใน sitemaps ก็ได้ เหลือทางใดทางหนึ่ง
Google จะตัดสินใจให้หน้านั้นเป็นภาษาใดภาษาหนึ่งเท่านั้น Google ไม่มีการบอกว่าหน้านั้นเป็น 2 ภาษา เพราะงั้นควรแยกหน้ากัน ไม่ควรรวมหลายภาษาในหน้าเดียว
เว็บที่ Target เฉพาะประเทศ
สรุปการจัดประเทศคิดจาก ccTLD (Country Code Top-level Domain) เช่น .th .jp เป็นหลัก แล้วก็ข้อมูล hreflang เป็นตัวรอง
ซึ่ง Bot ของ Google ไม่ได้ทดลองเป็นชาติต่าง ๆ เวลาเข้าไป เช่น ถ้าบล็อกทราฟฟิกจากอเมริกา Bot อาจจะเข้าไม่ได้
เพราะฉะนั้นการซื้อ ccTLD สำหรับเว็บในประเทศต่าง ๆ จะเป็นสิ่งที่ Google ตรวจง่ายที่สุด แต่ถ้าทำไม่ได้ ก็ต้องเปลี่ยนไปทาง SubDomain หรือ SubDirectory แทน
Google เข้าใจโดเมนภาษาไทย
แต่ Google ไม่เข้าใจภาษาคาราโอเกะ เพราะไม่มีมาตรฐาน และคนใช้น้อย
ว่าด้วย AI
ML ที่ GoogleML อยู่ใต้ AI โดย ML คือระบบที่เรียนรู้จากข้อมูลจำนวนมาก
LLM ก็อยู่ใต้ AI อีกที
โดย Google ใช้ ML มานานกว่า 20 ปีแล้ว เช่น ใช้ตรวจสอบ spam และใช้ทำความเข้าใจเว็บและเนื้อหาต่าง ๆ
LLM คืออัลกอริทึม AI แบบหนึ่ง ใช้เทคนิคการเรียนรู้เชิงลึกจากชุดข้อมูลขนาดใหญ่ เพื่อทำความเข้าใจ สรุป สร้าง และคาดการณ์เนื้อหาใหม่
AI Overview ไม่ไช่ตัวเดียวกับ Gemini แต่ใช้ของตัวเองเลย โดยประมวลผลจากข้อมูลที่มีในเว็บ เลยไม่ค่อยมีปัญหาหลอน
AI Overview ทำงานพวกสร้าง snippet สรุปข้อมูลในเว็บ ซึ่งก็สร้างคลิกได้มากขึ้นด้วย
พูดถึง Gemini หน่อย ซึ่งมันอาจให้ข้อมูลผิดได้ เลยต้องใช้คนเข้ามาช่วยจูนข้อมูลที่ได้ แต่สุดท้ายก็ต้องเช็กข้อมูลที่ได้อีกที
The post สรุปงาน Search Central Live Bangkok ตำราติดการค้นหาในเว็บที่ Google ออกมาพูดเอง appeared first on BT beartai.
Credit ข่าวจาก : www.beartai.com/