หน้าเว็บ

การเเทนที่ข้อมูในคอมพิวเตอร์

   การแทนที่ข้อมูลในคอมพิวเตอร์                                                                           คอมพิวเตอร์มีการทำงาน 3 ขั้นตอน ได้แก่ การนำเข้าข้อมูล

 การประมวลผล และการแสดงผลข้อมูล ซึ่งกระบวนการดังกล่าวเป็นกระบวนการนำเสนอสารสนเทศ
ให้มนุษย์เข้าใจ แต่ความจริงแล้วทุกสิ่งทุกอย่างที่นำเสนอ ไม่ว่าจะเป็นตัวเลข ตัวอักษร ข้อความ การ
เว้นวรรค ภาพ เสียง ภาพเคลื่อนไหว หรือคำสั่งต่าง ๆ นั้น เครื่องคอมพิวเตอร์จะใช้ เก็บ ประมวลผลใน
รูปแบบตัวเลขเท่านั้น และการแสดงผลต่าง ๆ ที่เป็นภาพ  ข้อความ หรือเสียง เป็นเพียงหนึ่งในวิธี
การนำเสนอ โดยใช้กลุ่มข้อมูลตัวเลขมาแปลหรือแสดงผลให้มนุษย์เข้าใจ
            1.      การแทนที่ข้อมุลด้วยตัวเลข (Representint Data as Number)
             เลขฐานสิบ (Decimal) เป็นตัวเลขที่มนุษย์ปัจจุบันใช้ในชีวิตประจำวัน ซึ่งตัวเลขประกอบด้วยเลข        
       0, 1, 2, 3, ... จนถึงเลข 9 แต่การใช้ตัวเลขดังกล่าวไม่สามารถใช้แทนค่าในคอมพิวเตอร์ได้

       เนื่องจากคอมพิวเตอร์เป็นอุปกรณ์ดิจิทัลจึงใช้เลขเพียง 2 ค่า ได้แก่ เลข 0 และ เลข 1 เท่านั้น ซึ่ง

       ระบบเลขนี้ เรียกว่า เลขฐานสอง (Binary Digit หรือ bit)

                   1.1.     บิต (bit) จะเป็นส่วนที่เล็กที่สุดและคอมพิวเตอร์
รู้จัก หากเปรียบเทียบบิตกับสวิตซ์ไฟฟ้า 1 อัน ก็จะมีได้เพียง 2 สถานะ 
ได้แก่ การปิดและการเปิดเท่านั้น ซึ่งก็คือ การแทนค่า 0 หรือ 1
 เรียกว่า 1 บิต หากเราต้องการค่าที่มากขึ้นก็จะใช้หลายบิตมาเรียงต่อ
กัน เช่น 1001 กรณีนี้เราเรียกกันว่า 4 บิต ซึ่งเครื่องคอมพิวเตอร์จะนำกลุ่มของบิตเหล่านี้มาแสดงใน
รูปแบบของข้อมูลที่มีความหมาย
                   1.2.      ไบต์ (byteกลุ่มบิตที่เรียงต่อกันจำนวน 8 บิต เรียกว่า ไบต์ (byte) ซึ่งกลุ่มบิตที่
เรียงกันจำนวน 8 บิต สามารถสร้างค่าที่แตกต่างกันได้ถึง 256 ค่า โดยแต่ละบิตจะมีเพียง 2 สถานะ
เท่านั้น ดังนั้นค่า 00000000 เท่ากับค่า 0 ในระบบเลขฐานสิบ และค่า 11111111 เท่ากับ 256 ในระบบ
เลขฐานสิบ

                ระบบจำนวน (Number System) เป็นระบบเลขฐานสองซึ่งคอมพิวเตอร์เข้าใจ แต่เป็นระบบที่

      มนุษย์ไม่คุ้นเคย จึงเกิดความยุ่งยากในการใช้งาน อีกทั้งเลขฐานสองมีจำนวนที่จำกัดเพียง 2 ค่า 14

      ในระบบเลขฐานสิบ จะกำหนดเป็นเลขฐานสอง คือ 1110 ด้วยเหตุนี้ผู้เขียนโปรแกรมจึงนิยมเปลี่ยน

      เลขฐานสองเป็นเลขฐานสิบหกแทน (Hexadecimal : hex) ซึ่งเลขฐานสิบหกนี้มีค่าที่ใช้ 16 ค่า โดย

      มีเลข 0 จนถึง เลข 9 ซึ่งเป็นเลขที่ค้นเคยและใช้ตัวอักษร ถึง F  เพิ่มเติม ทำให้เลขฐานสิบหก

      สามารถสื่อสารกับผู้เขียนโปรแกรมได้ง่ายกว่าเลขฐานสอง  อย่างน้อย 10 ค่าแรกของเลขฐานสิบหกก็

      ใช้ตัวเลขฐานสิบเช่น 010010110 ในเลขฐานสองจะแทนค่าด้วยเลขฐานสิบหก คือ 4B


            2.      การแทนที่ข้อมูลด้วยรหัสอักขระ (Representing Characters : Character Code)
        รหัสอักขระ (Character Code) เป็นรหัสที่ใช้กำหนดว่าตัวอักขระ (ตัวอักษร ตัวเลข และ
สัญลักษณ์) แต่ละตัวจะแทนด้วยบิตที่เรียงกัน โดยจะแปลงอักขระที่ใช้กันอยู่ให้เป็นตัวเลขทาง
คอมพิวเตอร์ (เลขฐานสอง) ซึ่งได้มีการกำหนดมาตราฐานสำหรับรหัสอักขระไว้ดังนี้
                   2.1.      รหัสเอบซีดิก    เป็นรหัสที่พัฒนาโดยบริษัทไอบีเอ็มเพื่อใช้กับระบบปฏิบัติการ
ขนาดใหญ่ เช่น OS-390 สำหรับเครื่องแม่ข่าย S/390 ของไอบีเอ็ม ถูกนำมาใช้เครื่องคอมพิวเตอร์
ของไอบีเอ็มที่ผลิตเองทั้งหมด ไม่ว่าจะเป็นเครื่องเมนเฟรม (mainframe) และเครื่องคอมพิวเตอร์
ระดับกลาง (Minicomputer) แต่บริษัทผู้ผลิตคอมพิวเตอร์ส่วนใหญ่จะนิยมใช้รหัสแอสดีมากกว่า รหัส
เอบซีดิกเป็นรหัส 8 บิต เหมือนกับรหัสแอสกีทุกประการ จึงแทนรหัสอักขระได้ 256 ตัว ปัจจุบันรหัส
แอบซีดิกไม่เป็นที่นิยมและกำลังเลิกใช้
                   2.2.      รหัสแอสกี เป็นรหัสมาตรฐานที่กำหนดโดยสถาบันมาตรฐานแห่งชาติอเมริกา 
(American National Standard Institute : ANSI/) เป็นรหัสที่ใช้กันมากที่สุดบนเครื่องมินิ
คอมพิวเตอร์ ไมโคร-คอมพิวเตอร์ และเครื่องคอมพิวเตอร์ที่ใช้งานบนเครือข่ายอินเทอร์เนต โดยเริ่ม
ต้นใช้ครั้งแรกใน ค.ศ. 1967 รหัสแอสกีแต่เดิมประกับด้วยรหัส 7 บิต เพื่อแทนอักขระทั้งหมด 128 ตัว
 โดยมี 33 ตัว ที่ไม่แสดงผล แต่ใช้ควบคุมการทำงานของคอมพิวเตอร์ เช่น การขึ้นย่อหน้าใหม่ การ
สิ้นสุดการประมวลผล
            ใน ค.ศ. 1986 รหัสแอสกีได้ปรับปรุงใหม่เป็นรหัส 8 บิต โดยเพิ่มเข้ามา อีก 1 บิตเพื่อให้ใช้ใน
การตรวจสอบความถูกต้อง เรียกบิตสูดท้ายนี้ว่า พาริตีบิต ซึ่งสามรถใช้แทนอักขระที่เป็นสัญลักษณ์ได้
 256 ตัว ซึ่งเพียงพอสำหรับแทนอักษรเพิ่มเติมในภาษาของแต่ละท้องถิ่นที่ใช้ เช่น อักษรในภาษา
ไทย ภาษาสเปน โดยจะมีผังอักขระที่แตกต่างกันไปเพื่อรองรับอักขระในแต่ละภาษาเรียกว่า โค้ดเพจ
(Codepage) อักขระทั้ง 128 ตัวแรกส่วนใหญ่จะยังคงเหมือนกันแทบทุกโค้ดเพจแต่บางอักขระ
เท่านั้นที่มีการเปลี่ยนแปลง โดยอักขระท้องถิ่นจะเริ่มใช้โค้ดตั้งแต่ 129 จนถึง 256

            รหัสอักขระ (Character Code) แม้จะสามารถใช้ในการแทนข้อมูลตัวอักษรและตัวเลข
จำนวนเต็มตั้งแต่ 0 ถึง 9 ในระบบตัวเลขฐานสิบที่มนุษย์ใช้ในปัจจุบันก็ตาม แต่ในความเป็นจริงมนุษย์
ยังใช้ตัวเลขทีมีขนาดใหญ่มากหรือเล็กมาก ๆ การใช้ตัวเลขในทางวิทยาศาสตร์ การคำนวณทางสถิติ
ทีมีจุดทศนิยมหลาย ๆ หลัก หรือการใช้ข้อมูลที่มีขนาดใหญ่ การใช้ตัวเลขที่เป็นเลขยกกำลัง เหล่านี้
เป็นข้อจำกัดของรหัสอักขระที่ไม่สามารถใช้กับตัวเลขที่เป็นทศนิยมหรือเลขยกกำลังมาก ๆ ได้ ดังนั้น
 เพื่อให้คอมพิวเตอร์สามารถแทนข้อมูลทศนิยมหรือเลขทีมีจำนวนมากได้ ในคอมพิวเตอร์ รุ่นแรก ๆ 
จะใช้ Floating Unit (FPU) ที่มีวงจรการประมวลเฉพาะในส่วนที่เป็นทศนิยม เรียกว่า Pointing Unit 
ซึ่งจะอยู่ในส่วนที่เรียกว่า ตัวประมวลผลร่วมทางคณิตศาสตร์ (Math coprocessor) เป็นแผ่นวงจร
พิเศษ (Chip) ที่พัฒนาขึ้นเพื่อประมวลผลเฉพาะทางคณิตศาสตร์ดังกล่าว แต่ปัจจุบันวงจรนี้จะรวมอยู่
ในหน่วยประมวลผลกลาง (Microprocessor หรือ CPU) ดังนั้น คอมพิวเตอร์ในปัจจุบัน จึงคำนวณ
ข้อมูลที่มีขนาดเล็กมาก ๆ เช่น เลขทศนิยมที่ละเอียดมาก หรือข้อมูลขนาดใหญ่มาก ๆ (เลขยกกำลัง
สูง ๆ ) ได้โดยไม่ต้องเพิ่มตัวประมวลผลร่วมทางคณิตศาสตร์อีกต่อไป
                2.3.      รหัสยูนิโค้ด เป็นรหัสมาตรฐานที่มีการพัฒนาขึ้นใน พ.ศ. 2534 และพัฒนามาอย่าง
ต่อเนื่องรหัสยูนิโค้ดช่วยให้คอมพิวเตอร์แสดงผล และจัดการข้อความตัวอักษรที่ใช้ระบบการเขียนของ
ภาษาส่วนใหญ่ทั่วโลก โดยรหัสที่ใช้เป็นเลขฐานสองตั้งแต่ 1 ถึง 4 ไบต์ จึงจะสามารถรองรับอักขระ
ได้ถึง 100,000 ตัว และรองรับภาษาต่าง ๆ เช่น ภาษาจีนเป็นสัญลักษณ์ที่มีตัวอักษรมากกว่า 30,000
 ตัวได้อย่างเพียงพอ

ไม่มีความคิดเห็น:

แสดงความคิดเห็น

วิวัฒนาการของเทคโนโลยีสารสนเทศ

วิวัฒนาการของเทคโนโลยีสารสนเทศ วิวัฒนาการของสารสนเทศ  อดีตมนุษย์ยังไม่มีภาษาที่ใช้สำหรับการสื่อสาร เมื่อเกิดมีเหตุการณ์ (Event) อะไร เก...