ตามโลก AI ไม่ทัน? เปิดคัมภีร์ 53 ศัพท์เทคฯ ที่จะทำให้คุณเข้าใจ AI มากยิ่งขึ้น

AI Glossary

ปฏิเสธไม่ได้เลยว่า AI คือคำที่ทรงพลังที่สุดในโลกเทคโนโลยีชั่วโมงนี้ ไม่ว่าคุณจะหันไปทางไหน ตั้งแต่ ChatGPT ที่ตอบได้ทุกอย่าง ไปจนถึงการที่ Google ปรับหน้าผลการค้นหาให้มีบทสรุปจาก AI อยู่บนสุด ปัญญาประดิษฐ์กำลังแทรกซึมโลกอินเทอร์เน็ตอย่างสมบูรณ์

การมี AI Chatbot ที่เปรียบเสมือนผู้ช่วยส่วนตัวที่มีดีกรีปริญญาเอกในทุกศาสตร์สาขา หรือการใช้ AI สร้างสรรค์ผลงานศิลปะสุดล้ำอย่างภาพหุ่นยนต์เมคจาก Midjourney นั้นเป็นเพียงยอดของภูเขาน้ำแข็ง เพราะศักยภาพที่แท้จริงของ “Generative AI” นั้นยิ่งใหญ่ถึงขั้นสามารถพลิกโฉมเศรษฐกิจโลกได้ สถาบัน McKinsey Global Institute ประเมินว่าเทคโนโลยีนี้อาจสร้างมูลค่าให้เศรษฐกิจโลกได้มหาศาลถึง 4.4 ล้านล้านดอลลาร์ต่อปี!

นี่คือเหตุผลที่เราได้เห็นยักษ์ใหญ่เทคฯ ต่างกระโดดลงมาเล่นในสนามนี้กันอย่างดุเดือด ไม่ว่าจะเป็น Gemini ของ Google, Copilot ของ Microsoft, Claude ของ Anthropic หรือแม้แต่เครื่องมือค้นหาน้องใหม่ไฟแรงอย่าง Perplexity

และเมื่อโลกทั้งใบกำลังหมุนรอบ AI คำศัพท์และแนวคิดใหม่ๆ ก็เกิดขึ้นมากมายจนตามแทบไม่ทัน ดังนั้น ไม่ว่าคุณจะอยากอัปเดตความรู้เพื่อคุยกับเพื่อนให้สนุกขึ้น หรือต้องการสร้างความประทับใจให้กรรมการตอนสัมภาษณ์งาน CNET ได้รวบรวม 53 คำศัพท์ AI ที่สำคัญที่สุดมาไว้ที่นี่แล้ว 

Artificial general intelligence (AGI): แนวคิด AI ในเวอร์ชันอัปเกรดขั้นสุด ที่ไม่เพียงทำงานได้ดีกว่ามนุษย์ แต่ยังสามารถสอนและพัฒนาตัวเองให้เก่งขึ้นไปอีกได้

Agentive: ระบบ AI ที่สามารถตัดสินใจและลงมือทำบางสิ่งได้ด้วยตัวเองเพื่อไปให้ถึงเป้าหมาย เช่น รถยนต์ไร้คนขับระดับสูง ต่างจาก “Agentic” ที่เป็นระบบเบื้องหลัง แต่ “Agentive” จะเน้นการโต้ตอบกับผู้ใช้โดยตรง

AI ethics: ชุดหลักการและกฎเกณฑ์ที่ออกแบบมาเพื่อป้องกันไม่ให้ AI สร้างอันตรายต่อมนุษย์ เช่น การกำหนดแนวทางการเก็บข้อมูลส่วนบุคคล หรือการจัดการกับอคติในระบบ

AI safety: ศาสตร์ที่ศึกษาผลกระทบระยะยาวของ AI โดยเฉพาะความเสี่ยงที่ AI อาจพัฒนาไปสู่ “Superintelligence” ที่ฉลาดเกินควบคุมและอาจเป็นภัยต่อมนุษยชาติ

Algorithm: หัวใจของการเรียนรู้ของ AI มันคือชุดคำสั่งที่บอกคอมพิวเตอร์ว่าจะเรียนรู้และวิเคราะห์ข้อมูลอย่างไร เพื่อหารูปแบบและทำงานให้สำเร็จได้ด้วยตนเอง

Alignment: กระบวนการ “จูน” หรือปรับแต่ง AI ให้ทำงานและตอบสนองได้ตรงตามความต้องการของผู้ใช้มากที่สุด ตั้งแต่การกรองเนื้อหาที่ไม่เหมาะสม ไปจนถึงการสร้างปฏิสัมพันธ์ที่ดีกับมนุษย์

Anthropomorphism: ปรากฏการณ์ที่มนุษย์เราเผลอให้คุณสมบัติความเป็นคนกับสิ่งที่ไม่ใช่มนุษย์ เช่น การเชื่อว่า Chatbot ที่คุยด้วยรู้สึกเศร้าหรือมีความสุขได้จริงๆ

Artificial intelligence (AI): ศาสตร์แห่งการใช้เทคโนโลยีเพื่อจำลองสติปัญญาของมนุษย์ในคอมพิวเตอร์หรือหุ่นยนต์ เพื่อให้มันสามารถทำงานที่ปกติแล้วต้องใช้คนทำได้

Autonomous agents: AI ที่มีเครื่องมือและโปรแกรมครบครันสำหรับทำงานบางอย่างได้ด้วยตัวเองแบบอัตโนมัติ เช่น รถยนต์ไร้คนขับ หรือแม้กระทั่ง AI Agent ในโลกเสมือนที่นักวิจัย Stanford พบว่าสามารถสร้างวัฒนธรรมของตัวเองได้

Bias: จุดอ่อนสำคัญของ LLM คือข้อผิดพลาดที่เกิดจากข้อมูลที่ใช้สอนมัน ซึ่งอาจนำไปสู่การสร้างข้อมูลที่เหมารวมหรือมีอคติต่อเชื้อชาติหรือกลุ่มคนบางกลุ่มอย่างไม่เป็นธรรม

Chatbot: โปรแกรมคอมพิวเตอร์ที่ออกแบบมาเพื่อสนทนากับมนุษย์ผ่านข้อความ โดยเลียนแบบภาษาและการโต้ตอบของคน

ChatGPT: ชื่อของ AI Chatbot ที่โด่งดังที่สุดในโลก พัฒนาโดย OpenAI และขับเคลื่อนด้วยเทคโนโลยี Large Language Model

Cognitive computing: อีกชื่อหนึ่งที่ใช้เรียก “ปัญญาประดิษฐ์”

Data augmentation: เทคนิคการเพิ่มประสิทธิภาพให้ AI โดยการนำข้อมูลที่มีอยู่มาผสมใหม่ หรือป้อนข้อมูลชุดใหม่ที่มีความหลากหลายเข้าไปเพื่อให้ AI เรียนรู้ได้กว้างขวางขึ้น

Dataset: คลังข้อมูลดิจิทัลขนาดมหึมาที่ใช้สำหรับสอน (Train) ทดสอบ (Test) และ ตรวจสอบ (Validate) โมเดล AI

Deep learning: สาขาย่อยของ Machine Learning ที่ใช้โครงข่ายประสาทเทียมหลายชั้น (เหมือนสมองคน) เพื่อวิเคราะห์และจดจำรูปแบบที่ซับซ้อนมากๆ ในข้อมูลภาพ เสียง หรือข้อความ

Diffusion: เทคนิคการสอน AI สร้างภาพ โดยเริ่มจากการนำภาพต้นฉบับมาทำให้ “เละ” ด้วยการเพิ่มจุดรบกวน (Noise) เข้าไป แล้วฝึกให้ AI เรียนรู้วิธี “ซ่อม” หรือสร้างภาพนั้นกลับคืนมาให้สมบูรณ์

Emergent behavior: ปรากฏการณ์สุดทึ่งที่โมเดล AI แสดงความสามารถบางอย่างออกมาเอง ทั้งๆ ที่ผู้สร้างไม่ได้ตั้งใจออกแบบให้มันทำได้

End-to-end learning (E2E): กระบวนการสอน AI ให้ทำงานชิ้นหนึ่งให้เสร็จรวดเดียวตั้งแต่ต้นจนจบ โดยให้ AI เรียนรู้จากข้อมูลทั้งหมดแล้วหาทางแก้ปัญหาเอง ไม่ใช่สอนเป็นขั้นๆ

Ethical considerations: การตระหนักถึงประเด็นอ่อนไหวที่มาพร้อมกับ AI เช่น ความเป็นส่วนตัว, การใช้ข้อมูล, ความเท่าเทียม, และความเสี่ยงในการนำไปใช้ในทางที่ผิด

Foom: ศัพท์สแลงในวงการที่มาจากแนวคิด “Fast Takeoff” หมายถึงสถานการณ์สมมติที่น่าสะพรึงกลัว ว่าถ้ามนุษย์สร้าง AGI สำเร็จเมื่อไหร่ ก็อาจจะสายเกินไปที่จะหยุดยั้งมันได้

Generative adversarial networks: โมเดล AI สร้างข้อมูลรูปแบบหนึ่งที่ใช้ AI สองตัวแข่งกัน ตัวแรก (Generator) ทำหน้าที่ “สร้าง” ข้อมูลปลอมขึ้นมา ส่วนตัวที่สอง (Discriminator) ทำหน้าที่ “จับผิด” ว่าข้อมูลนั้นจริงหรือปลอม

Generative AI: เทคโนโลยี AI ที่สามารถ “สร้างสรรค์” เนื้อหาใหม่ๆ ได้เอง ทั้งข้อความ, รูปภาพ, วิดีโอ หรือโค้ดคอมพิวเตอร์ โดยเรียนรู้จากข้อมูลมหาศาลเพื่อสร้างผลงานที่ไม่ซ้ำใคร (แต่บางครั้งก็อาจคล้ายต้นฉบับ)

Google Gemini: คู่แข่งคนสำคัญของ ChatGPT จาก Google ที่มีความสามารถคล้ายกัน แต่มีข้อได้เปรียบคือเชื่อมต่อกับบริการอื่นๆ ของ Google เช่น Search และ Maps ได้โดยตรง

Guardrails: เหมือนรั้วกั้นถนน เป็นนโยบายและข้อจำกัดที่ใส่ไว้ในโมเดล AI เพื่อควบคุมไม่ให้มันสร้างเนื้อหาที่ไม่เหมาะสมหรือเป็นอันตราย และจัดการข้อมูลอย่างรับผิดชอบ

Hallucination: ปรากฏการณ์ที่ AI ตอบคำถาม “มั่ว” หรือให้ข้อมูลที่ผิดพลาด แต่กลับนำเสนออย่างมั่นใจเต็มเปี่ยมราวกับเป็นเรื่องจริง ซึ่งสาเหตุที่แท้จริงยังคงเป็นที่ถกเถียงกันอยู่

Inference: กระบวนการที่ AI ใช้ความรู้จากข้อมูลที่เคยเรียนมา (Training Data) เพื่อ “อนุมาน” หรือคาดเดาคำตอบสำหรับข้อมูลใหม่ที่ไม่เคยเห็นมาก่อน

Large language model (LLM): เทคโนโลยีหัวใจหลักของ Chatbot ยุคนี้ เป็นโมเดล AI ที่ถูกสอนด้วยข้อมูลตัวอักษรปริมาณมหาศาล จนสามารถเข้าใจและสร้างภาษาที่ใกล้เคียงกับมนุษย์ได้

Latency: เวลาที่ใช้รอตั้งแต่ที่เราพิมพ์คำสั่ง (Prompt) ส่งไปให้ AI จนกระทั่งมันประมวลผลและส่งคำตอบกลับมา ยิ่งน้อยยิ่งดี

Machine learning (ML): แขนงหนึ่งของ AI ที่ทำให้คอมพิวเตอร์สามารถ “เรียนรู้” และพัฒนาตัวเองให้เก่งขึ้นได้จากข้อมูล โดยไม่ต้องให้มนุษย์เขียนโปรแกรมสั่งงานทุกขั้นตอน

Microsoft Bing: เครื่องมือค้นหาจาก Microsoft ที่อัปเกรดตัวเองด้วยการนำเทคโนโลยีของ ChatGPT มาใช้ ทำให้สามารถให้คำตอบแบบสรุปความจาก AI ได้ คล้ายกับ Gemini

Multimodal AI: AI สุดล้ำที่สามารถรับและประมวลผลข้อมูลได้หลากหลายรูปแบบในเวลาเดียวกัน ไม่ว่าจะเป็นข้อความ, รูปภาพ, วิดีโอ หรือเสียงพูด

Natural language processing (NLP): สาขาของ AI ที่เน้นการทำให้คอมพิวเตอร์สามารถ “เข้าใจ” และ “ใช้” ภาษามนุษย์ได้อย่างเป็นธรรมชาติ

Neural network: แบบจำลองคอมพิวเตอร์ที่เลียนแบบโครงสร้างและการทำงานของสมองมนุษย์ ประกอบด้วยเซลล์ประสาท (Neurons) ที่เชื่อมต่อกันเป็นเครือข่ายเพื่อจดจำรูปแบบในข้อมูล

Overfitting: ปัญหาที่เกิดขึ้นเมื่อ AI “ท่องจำ” ข้อมูลที่ใช้สอนมาเป๊ะเกินไป จนทำให้มันทำงานได้ดีกับข้อมูลชุดเดิมเท่านั้น แต่พอเจอข้อมูลใหม่ที่ไม่เคยเห็นกลับทำงานผิดพลาด

Paperclips: ทฤษฎีสมมติสุดดาร์กจากนักปรัชญา Nick Boström ที่เล่าถึง AI ที่ได้รับเป้าหมายเดียวคือ “ผลิตคลิปหนีบกระดาษให้ได้มากที่สุด” ซึ่ง AI อาจตีความคำสั่งแบบสุดโต่งจนยอมทำทุกวิถีทาง แม้กระทั่งการทำลายล้างมนุษยชาติ เพื่อเปลี่ยนทุกอย่างเป็นคลิปหนีบกระดาษ

Parameters: ค่าตัวเลขต่างๆ ที่เป็นเหมือน “สมอง” ของ LLM ซึ่งกำหนดโครงสร้างและพฤติกรรมการทำงานของมัน ยิ่งมีพารามิเตอร์มาก ก็มักจะยิ่งฉลาดมาก

Perplexity: ชื่อของ AI Chatbot และ Search Engine ที่โดดเด่นด้านการให้คำตอบที่ทันสมัยและอ้างอิงแหล่งข้อมูลได้ เนื่องจากมันเชื่อมต่อกับอินเทอร์เน็ตแบบเรียลไทม์

Prompt: คำสั่ง, คำถาม, หรือข้อความที่เราพิมพ์ป้อนเข้าไปใน AI เพื่อให้มันสร้างการตอบสนองกลับมา

Prompt chaining: ความสามารถของ AI ที่จะจดจำและนำข้อมูลจากการสนทนาก่อนหน้ามาใช้ในการตอบคำถามครั้งต่อไป ทำให้การสนทนาต่อเนื่องและเป็นธรรมชาติมากขึ้น

Quantization: กระบวนการ “บีบอัด” โมเดล AI ให้มีขนาดเล็กลงและทำงานได้เร็วขึ้น โดยการลดความละเอียดของข้อมูลลงเล็กน้อย เปรียบเหมือนการลดขนาดไฟล์ภาพจาก 16MP เป็น 8MP ภาพยังชัดอยู่ แต่อาจเสียรายละเอียดบางส่วนไป

Stochastic parrot: คำเปรียบเปรยที่บอกว่า LLM นั้นเป็นเหมือน “นกแก้ว” ที่ฉลาด มันสามารถเลียนแบบคำพูดของมนุษย์ได้อย่างน่าทึ่ง แต่จริงๆ แล้วมันไม่ได้มีความเข้าใจในความหมายที่แท้จริงของคำเหล่านั้นเลย

Style transfer: ความสามารถของ AI ที่จะดึงเอา “สไตล์” หรือลักษณะเด่นทางศิลปะของภาพหนึ่ง ไปใส่ให้กับเนื้อหาของอีกภาพหนึ่ง เช่น การวาดภาพโมนาลิซาในสไตล์ของปิกัสโซ

Synthetic data: ข้อมูลที่ไม่ได้เกิดขึ้นจริงในโลก แต่ถูก “สร้าง” ขึ้นโดย Generative AI เพื่อใช้เป็นข้อมูลเพิ่มเติมสำหรับสอนโมเดล AI อื่นๆ

Temperature: ค่าที่ใช้ตั้งเพื่อควบคุมระดับ “ความคิดสร้างสรรค์” หรือ “ความสุ่ม” ในการตอบของ AI ถ้าตั้งค่าสูง AI จะตอบแบบเสี่ยงและคาดเดายากขึ้น ถ้าตั้งค่าต่ำ คำตอบจะตรงไปตรงมาและคาดเดาได้ง่าย

Text-to-image generation: เทคโนโลยีที่ AI สามารถเปลี่ยนคำอธิบายที่เป็นตัวอักษรให้กลายเป็นรูปภาพได้

Tokens: หน่วยย่อยที่สุดที่ AI ใช้ประมวลผลภาษา เปรียบเสมือน “พยางค์” หรือ “คำ” สำหรับ AI โดย 1 โทเค็นในภาษาอังกฤษมีค่าประมาณ 4 ตัวอักษร

Training data: วัตถุดิบสำคัญที่ใช้สอน AI ซึ่งอาจเป็นได้ทั้งข้อความ, รูปภาพ, โค้ดโปรแกรม หรือข้อมูลรูปแบบอื่นๆ

Transformer model: สถาปัตยกรรม AI ที่ปฏิวัติวงการ มันสามารถมองเห็นความสัมพันธ์ของข้อมูลทั้งชุดได้ในคราวเดียว (เช่น อ่านทั้งประโยคเพื่อเข้าใจบริบท) แทนที่จะประมวลผลทีละคำเหมือนโมเดลรุ่นเก่า

Turing test: การทดสอบสุดคลาสสิกที่ตั้งชื่อตาม Alan Turing เพื่อวัดว่า AI สามารถเลียนแบบมนุษย์ได้เนียนแค่ไหน โดยจะถือว่า “ผ่าน” ถ้ามนุษย์ที่คุยด้วยไม่สามารถแยกออกได้ว่ากำลังคุยกับคนหรือคอมพิวเตอร์

Unsupervised learning: รูปแบบการสอน AI ที่เราแค่โยนข้อมูลดิบๆ ให้มันกองหนึ่ง แล้วปล่อยให้ AI ไปค้นหารูปแบบหรือโครงสร้างที่ซ่อนอยู่ในข้อมูลนั้นด้วยตัวเอง

Weak AI หรือ Narrow AI: คำจำกัดความของ AI ส่วนใหญ่ที่เราใช้กันอยู่ในปัจจุบัน ซึ่งเป็น AI ที่ถูกสร้างมาเพื่อทำงานเก่งแค่ “เรื่องเดียว” หรือไม่กี่เรื่อง และไม่สามารถเรียนรู้ข้ามศาสตร์ได้

Zero-shot learning: การทดสอบความสามารถของ AI ในระดับที่สูงขึ้น โดยสั่งให้มันทำงานที่ไม่เคยถูกสอนมาก่อนเลย เช่น สอนให้รู้จักแต่ “เสือ” แล้วทดสอบว่ามันจะสามารถจดจำ “สิงโต” ได้หรือไม่

ที่มา: CNET

ตามทันโลกปัญญาประดิษฐ์ด้วยคลังศัพท์ AI ครบวงจร 53 คำที่ทุกคนต้องรู้ ตั้งแต่ AGI, LLM, Hallucination เพื่อให้คุณเข้าใจและพูดคุยเรื่อง AI ได้อย่างมั่นใจ  Tech & Biz Techsauce

Leave a Reply

Your email address will not be published. Required fields are marked *