คลังเก็บหมวดหมู่: ประชา แสงรีย์

SoftBank เปิดตัว eSIM ระบบ SIM Card ที่ปรับแต่งค่าได้จากระยะไกล สำหรับ IoT โดยเฉพาะ

SoftBank ได้ออกมาเปิดเผยเทคโนโลยี eSIM ที่จะทำให้เราไม่ต้องถอดเปลี่ยน SIM อีกต่อไปถึงแม้จะต้องการเปลี่ยนเบอร์หรือย้ายค่ายก็ตาม

Credit: SoftBank

 

SIM ในปัจจุบันที่เราใช้งานกันนี้ หากต้องการแก้ไขการทำงาน เช่น การเปลี่ยนผู้ให้บริการ ก็ต้องทำการเปลี่ยน SIM ไปด้ย แต่ eSIM ที่ SoftBank ทำการพัฒนาขึ้นมานี้สามารถทำการปรับแต่งค่าต่างๆ เหล่านี้ได้จากการเชื่อมต่อระยะไกลได้ทันที ทำให้การใช้งานในระบบ Internet of Things (IoT) ที่มักจะเปลี่ยน SIM ได้ยากนั้น สามารถปรับแต่งค่าต่างๆ ได้อย่างยืดหยุ่นตามต้องการ

นอกจากนี้ eSIM ยังมีขนาดที่เล็กกว่า SIM ทั่วๆ ไปถึง 90% ทำให้อุปกรณ์ IoT สามารถนำพื้นที่ที่เพิ่มมานี้ไปติดตั้ง Hardware อื่นๆ แทนได้ หรือจะลดขนาดอุปกรณ์ให้เล็กลงก็ย่อมได้เช่นกัน อีกทั้งการกำหนดค่าให้ eSIM หลายๆ ชุดใช้เบอร์โทรศัพท์เดียวกันและใช้ Mobile Plan ร่วมกันนั้นก็สามารถเป็นจริงขึ้นมาได้

ในมุมของ SoftBank เองนั้น eSIM จะมามีบทบาทเป็นอย่างมากในเทคโนโลยีทางด้าน IoT และหุ่นยนต์ของ SoftBank เองที่จะได้รับประโยชน์ไปเต็มๆ กับความเป็นไปได้ใหม่ๆ ในการออกแบบ และบรรดา eSIM เหล่านี้ก็จะสามารถถูกติดตั้งลงไปยังอุปกรณ์ต่างๆ จากโรงงาน และส่งอุปกรณ์เหล่านั้นไปขายได้ทั่วโลก พร้อมให้ผู้ขายนำไปทำการปรับแต่งค่าของ eSIM ให้เชื่อมต่อกับผู้ให้บริการได้ภายหลังตามต้องการ อันที่จริงแล้วไม่ว่าจะเป็นระบบ Machine-to-Machine (M2M) ใดๆ eSIM ก็สามารถตอบโจทย์ได้ทั้งสิ้น

 

ที่มา: https://venturebeat.com/2017/03/30/softbank-is-creating-an-esim-platform-to-power-iot-with-remotely-programmable-sim-cards/http://www.softbank.jp/en/corp/group/sbm/news/press/2017/20170330_04/

ที่มา: https://www.techtalkthai.com/softbank-launches-esim-programmable-sim-card-for-iot/

[Tech] นักวิจัยเผยค้นพบวิธีใช้ Wi-Fi รูปแบบใหม่ผ่านรังสีอินฟาเรด ที่ให้ความเร็วสูงถึง 40 Gbps !!!

จากจำนวนผู้ใช้อุปกรณ์ต่างๆ ในการเชื่อมต่อแบบ Wi-Fi เพิ่มมากขึ้น ทำให้เทคโนโลยีการเชื่อมต่อไร้สายนี้เกิดการพัฒนาปรับปรุงอยู่เสมอ เพื่อให้ทันกับความต้องการในปัจจุบันที่ไฟล์มีขนาดใหญ่ขึ้นและเน้นความเร็วในการรับส่งไฟล์ ซึ่งนักวิจัยปริญญาเอกของประเทศเนเธอร์แลนด์ได้ค้นพบวิธีการแบบใหม่ นั้นคือ การเชื่อมต่อ Wi-fi แบบใช้แสงอินฟราเรด ซึ่งได้ความเร็วสูงกว่า 40 Gbps

wifi infrared

Joanne Oh นักศึกษามหาวิทยาลัยเทคโนโลยีแห่ง Eindhoven ประเทศเนเธอร์แลนด์ ได้ศึกษาเกี่ยวกับระบบที่ใช้สาย Fiber optic และเสาอากาศแสง เพื่อส่งข้อมูลไปยังอุปกรณ์ไร้สายผ่านรังสีอินฟาเรดที่ไม่เป็นอันตราย ซึ่งในการทดสอบสามารถรับส่งข้อมูลได้รวดเร็วกว่า 42.8 Gbps ในระยะห่างประมาณ 8.5 ฟุต ซึ่งมีความเร็วที่มากกว่า Wi-Fi แบบปกติเฉลี่ยของประเทศถึง 2,000 เท่า

โดยตัวระบบจะสามารถกำหนดเป้าหมายไปยังสู่อุปกรณ์ที่ใช้ได้หลายเครื่องพร้อมกันภายในครั้งเดียว ทำให้เครือข่ายไม่จำเป็นต้องส่งรหัสไปมาหลายรอบจนแออัดเกินไป ส่วนเสาอากาศแสงจะมีส่วนประกอบของตะแกรงคู่ ซึ่งไว้สำหรับหักเหแสงได้หลายมุม โดยทิศทางของแสงสามารถเปลี่ยนแปลงได้จากการปรับความยาวคลื่น ซึ่งตัวเครือข่ายสามารถติดตามอุปกรณ์แต่ละตัวได้นั้นขึ้นอยู่กับสัญญาณความถี่ของตน ด้วยวิธีการนี้ส่งผลให้เกิดการเชื่อมต่อที่ได้รวดเร็วขึ้น และไม่มีสัญญาณรบกวนใดๆ

ระบบอินฟราเรดที่ใช้ทดสองจะทำงานบนความถี่ประมาณ 200 เทอร์เรส ซึ่งสูงกว่า Wi-Fi ปกติทั่วไปถึง 1,000 เท่า ซึ่งสิ่งนี้ทำให้ตัวอินฟาเรด Wi-fi สามารถรับส่งข้อมูลได้รวดเร็วกว่านั่นเอง แต่มีข้อแม้บางประการ คือ เนื่องจากแสงอินฟราเรดไม่สามารถเคลื่อนที่ผ่านผนังหรือกำแพงได้ ตัวระบบจึงต้องใช้เสาอากาศในแต่ละห้องเพื่อเชื่อมต่อหากัน เพื่อที่จะให้มีสัญญาาณทั่วบ้าน โดยความเร็วในการดาวน์โหลดก็จะลดทอนลงไปด้วยตามระยะทางที่ส่ง

และจากการศึกษาของ Joanne Oh ทำให้โครงการอินฟาเรด Wi-fi เป็นส่วนหนึ่งของโครงการ BROWSE โดย TU/e ศาสตราจารย์ด้านเทคโนโลยีการสื่อสารบรอดแบนด์อย่าง Ton Koonen เป็นผู้ร่วมพัฒนาโครงการนี้และคาดว่าเทคโนโลยีอินฟาเรด Wi-fi จะเริ่มออกสู่ตลาดในอีกราวๆ 5 ปีข้างหน้า

ที่มา : techspot

ที่มา: https://notebookspec.com/researchers-reveal-infrared-wi-fi-system-capable-of-40-gbps-speeds/389967/

https://web.facebook.com/rmutphysics/posts/1393290164069132

พบช่องโหว่บน Android เสี่ยงถูกขโมยข้อมูลผ่านช่องเสียบหูฟัง

Roee Hay และ Sagi Kedmi สองนักวิจัยด้านความมั่นคงปลอดภัยจาก Aleph Security ออกมาเปิดเผยถึงช่องโหว่บนอุปกรณ์ Android ที่ช่วยให้แฮ็คเกอร์สามารถขโมยข้อมูลสำคัญ, บายพาส ASLR, ทำ Factory Reset หรือแม้กระทั้งเข้าถึง Android HBOOT Bootloader ผ่านทางการเชื่อมต่อหูฟังได้

ช่องโหว่นี้ถูกนำเสนอครั้งแรกในงานประชุม Black Hat ปี 2013 โดยนักวิจัยทั้ง 2 คนเริ่มจากการใช้ Multiplexed Wired Interface ในการเชื่อมต่อและเข้าถึงสมาร์ทโฟน Android ผ่านทางพอร์ต USB แต่ล่าสุด ทั้งสองคนประสบความสำเร็จในการใช้สายเคเบิล UART ที่ดัดแปลงเป็นพิเสษในการเชื่อมต่ออุปกรณ์ผ่านช่องเสียบหูฟัง โดยพวกเขาระบุว่าสามารถเข้าถึง FIQ (Fast Interrupt Request) Debugger บน Nexus 9 ได้

FIQ Debugger ช่วยให้แฮ็คเกอร์สามารถรับส่งคำสั่งเข้าไปยังอุปกรณ์ Android ได้ ต่อให้ระบบปฏิบัติกำลังทำงานอยู่ก็ตาม โดยแฮ็คเกอร์รันคำสั่งเพื่อ

  • เข้าถึง Help Menu
  • Dump รายการ Process ทั้งหมดและ Register ออกมา
  • ขโมยค่า Stack Canary ของ Zygote Core Process
  • ดูบริบทต่างๆ ของ CPU โดยใช้ตำแหน่งของ Memory (บายพาส ASLR)
  • เข้าถึง Sysrq Interface
  • เข้าถึง Nexus 9 HBOOT Bootloader
  • เข้าถึง I2C Buses และเชื่อมต่อกับ System-on-Chips (SoC) ภายใน
  • ดำเนินการ Factory Reset

ช่องโหว่นี้มีรหัส CVE-2017-0510 ซึ่ง Google ประเมินแล้วว่ามีระดับความรุนแรงเป็น Critical เนื่องจากแฮ็คเกอร์สามารถล่มระบบปฏิบัติการของอุปกรณ์ได้ ส่งผลให้ผู้ใช้ต้องติดตั้งระบบปฏิบัติการใหม่เพียงอย่างเดียว อย่างไรก็ตาม Google ก็ได้ออกแพทช์เพื่ออุดช่องโหว่ดังกล่าวเป็นที่เรียบร้อย สามารถดูรายละเอียดได้ที่ Android Security Bulletin เดือนมีนาคม 2017

ที่มา: https://www.bleepingcomputer.com/news/security/android-patched-to-protect-users-from-getting-hacked-via-headphones-connector/

ที่มา: https://www.techtalkthai.com/hack-android-devices-via-headphone-connector/

อยากประหยัดพลังงาน? เอา data center ไว้ใต้น้ำสิ! – เผยโฉมโครงการ Data Center ใต้น้ำจาก Microsoft

ในเดือนสิงหาคมปี 2015 Microsoft ได้ส่ง ‘Leona Philpot’ – โปรโตไทป์ของ data center ใต้น้ำลงไปที่ความลึก 11 เมตรในมหาสมุทรแปซิฟิกใกล้ชายฝั่ง San Luis Obispo รัฐแคลิฟอร์เนีย และ Leona Philpot นี้เองที่เมื่อจบการทดลองในอีก 105 วันให้หลัง กลายมาเป็น data center ที่ใช้พลังงานน้อยที่สุดเท่าที่เคยมีมา แต่โครงการสุดล้ำครั้งนี้มีที่มาที่ไปยังไงกันแน่?

เรื่องราวเริ่มต้นที่ Sean James หนึ่งในทีมงานเทคโนโลยี data center ซึ่งเคยประจำการในเรือดำน้ำของกองทัพเรือสหรัฐฯเสนอว่าบริษัทควรจะเอาเซิฟเวอร์ฟาร์มลงไปไว้ใต้น้ำซึ่งจะช่วยประหยัดค่าทำความเย็น ลดต้นทุนการก่อสร้าง และเพิ่มประสิทธิภาพในการทำงานของเซิฟเวอร์

แต่แค่ออกไอเดียคงไม่พอ Sean และเพื่อนร่วมงาน Todd Rawlings นำไอเดียนี้เขียนขึ้นเป็น white paper และแจกจ่ายเอกสารนี้ไปทั่วบริษัท ในเอกสารฉบับนี้ พวกเขาอธิบายถึงการสร้าง data center ใต้น้ำและหนทางที่มันจะนำไมโครซอฟต์และผู้ให้บริการอื่นๆไปสู่การจัดการการเติบโตของธุรกิจ data center ด้วยวิธีที่เป็นมิตรต่อสิ่งแวดล้อม

เป็นที่ขึ้นชื่ออยู่แล้วว่านักวิจัยของไมโครซอฟต์นั้นโปรดปรานความท้าทายเป็นที่สุด ไม่นานนัก Sean และ Todd ก็สามารถรวบรวมทีมและเริ่มต้นลงมือกับโปรเจค data center ใต้น้ำที่พวกเขาตั้งชื่อว่า Project Natick และสร้าง prototype ออกมาในอีก 12 เดือนให้หลัง

Data center ใต้น้ำ จะดีหรือ?

แน่นอนว่าโปรเจคนี้เต็มไปด้วยความท้าทายและข้อกังขามากมาย หนึ่งในคำถามแรกที่พวกเขาเผชิญคือ มันสมเหตุสมผลจริงๆหรือที่จะเอา data center ไปไว้ใต้น้ำ แม้มันจะช่วยประหยัดค่าทำความเย็นซึ่งเป็นรายจ่ายก้อนใหญ่ของผู้ประกอบธุรกิจ data center ก็เถอะ

ทีมงาน Project Natick ตอบคำถามนั้นดังนี้

ประการแรก การสร้าง data center ใต้น้ำจะทำให้ผู้ให้บริการ data center เพิ่มขยายขนาดได้ง่ายและเร็วขึ้น

โดยปกติแล้วในธุรกิจ data center บริษัทอาจจะต้องสร้างสถานที่ไว้รองรับ demand ของลูกค้าเป็นเวลานานก่อนที่จะมีลูกค้ามาใช้งานจริง ถ้าไม่เช่นนั้น เมื่อมีความต้องการใช้บริการที่มากขึ้นจนต้องสร้าง data center ใหม่ การก่อสร้างอาจใช้เวลาเป็นปีกว่าจะแล้วเสร็จ

การสร้าง data center แบบปัจจุบันที่ทำกันนั้น แม้ลักษณะอาคารอาจเป็นไปในรูปแบบเดิม แต่ในพื้นที่ที่ต่างกันย่อมมีปัจจัยที่ต่างกันอยู่มาก เช่นข้อกฎหมาย ภาษี สภาพอากาศ แรงงาน การจ่ายไฟฟ้า และการเชื่อมต่อเน็ตเวิร์ค สิ่งเหล่านี้เองที่ส่งผลกระทบต่อความเร็วในการก่อสร้าง

ในทางกลับกัน ไซต์ของ Natick จะประกอบไปด้วยกลุ่มของ pod – ท่อโลหะทรงกระบอกที่สามารถบรรจุเซิฟเวอร์หลายพันเซิฟเวอร์ไว้ด้วยกัน pod เหล่านี้อาจจะถูกวางไว้บนพื้นทะเลหรือลอยอยู่ในน้ำโดยยึดกับสายไฟที่พื้นทะเล ในความลึก 50 ถึง 200 เมตร และไม่กี่กิโลเมตรจากฝั่ง pod จะคงอยู่ในจุดเดิมจนกระทั่งมีการเปลี่ยนแปลงกับเครื่อเซิฟเวอร์ที่อยู่ด้านใน จะเห็นได้ว่าเป็นการติดตั้งแบบ “lights out” เต็มตัว นั่นคือ ไม่มีไฟฟ้า ไม่มีอากาศ ผู้ควบคุมสามารถแก้ไขระบบด้วยการเชื่อมต่อจากภายนอกเท่านั้น

การบรรจุเซิฟเวอร์เข้าไปใน pod Credit: Microsoft

pod เหล่านี้สามารถผลิตและส่งต่อไปตามสถานที่ต่างๆทั่วโลกเพื่อติดตั้งได้อย่างง่าย และไม่เหมือนกับบนพื้นดิน บรรยากาศใต้ทะเลนั้นค่อนข้างจะเหมือนกันหมดทุกที่บนโลก ฉะนั้นการปรับแต่ง pod จึงไม่จำเป็นอีกต่อไป ขั้นตอนที่ง่ายและรวดเร็วเหล่านี้จะทำให้ผู้ให้บริการสามารถขยายขนาดของบริการไปพร้อมๆกับการเติบโตของความต้องการของลูกค้า เป้าหมายของ Natick คือการสร้าง data center ใต้น้ำ ณ ที่ใดก็ตามในโลกให้ได้ภายใน 90 วันหลังการตัดสินใจ deploy

ประการที่สองคือเรื่องตำแหน่งของ data center

การเลือกสถานที่ตั้งของ data center ปัจจุบันนั้นมีปัจจัยร่วมกัน 4 อย่างหลัก คือค่าบริการไฟฟ้าไม่แพง สภาพอากาศเย็นพอสมควร ที่ดินถูก และไม่เป็นที่รบกวนประชาชนรอบข้าง ปัจจัยเหล่านี้บางครั้งก็กลายมาเป็นข้อจำกัดที่ผลักให้ data center ต้องออกไปตั้งอยู่ในจุดที่ห่างไกลจากผู้ใช้อินเทอร์เน็ต และทำให้เวลาในการตอบสนองของเซิฟเวอร์ช้า ทั้งที่ปัจจุบันความต้องการการตอบสนองที่เร็วนั้นเพิ่มขึ้นสูงมากอย่างไม่เคยมีมาก่อน

อาจจะเป็นที่น่าแปลกใจอยู่ไม่น้อยสำหรับผู้อ่านว่าเกือบครึ่งของประชากรโลกนั้นอาศัยอยู่ภายในรัศมี 100 กิโลเมตรจากทะเล ฉะนั้นการสร้าง data center ใต้ทะเลก็คือการเขยิบ data center เข้ามาใกล้ผู้ใช้อินเทอร์เน็ตมากขึ้นนั่นเอง

ประการที่สาม data center ใต้น้ำจะช่วยประหยัดค่าทำความเย็นไปได้มาก

ในอดีต data center มักติดตั้งอุปกรณ์ทำความเย็นที่คอยทำงานเป็นเครื่องปรับอากาศภายในอาคาร เครื่องปรับกาศนี้จะรักษาอุณหภูมิภายในที่ 18 ถึง 27 องศาเซลเซียส ทว่าในบางครั้งก็ใช้ไฟเกือบเท่ากับที่เครื่องเซิฟเวอร์ใช้ ผู้ให้บริการบางเจ้าจึงเปลี่ยนไปใช้ระบบ free-air cooling ซึ่งคือการใช้ประโยชน์จากอากาศภายนอกมาปรับความเย็นให้กับเซิฟเวอร์ แม้วิธีนี้จะลดค่าใช้จ่ายเหลือเพียง 10-30% แต่ก็เป็นระบบที่อิงกับสภาพอากาศภายนอกและใช้ทรัพยากรน้ำจำนวนมากในการช่วยปรับความเย็นให้อากาศ ซึ่งอาจก่อให้เกิดปัญหาขาดแคลนในหน้าแล้งหรือน้ำกัดเซาะอุปกรณ์ใน data center ได้ง่าย

ปัญหาเหล่านี้จะไม่เกิดขึ้นเมื่อเรายก data center ลงไปไว้ใต้น้ำ Natick มีระบบแลกเปลี่ยนความร้อนภายใน pod เป็นน้ำและนำน้ำนี้ไปหมุนเวียนกับน้ำเย็นข้างนอก pod แน่นอนว่าประสิทธิภาพของวิธีนี้ย่อมขึ้นอยู่กับอุณหภูมิของน้ำในทะเล แต่จากธรรมชาติของทะเล เมื่อลงไปลึกถึงระยะหนึ่ง อุณหภูมิใต้น้ำจะมีความเย็นที่เพียงพอ เช่นในรัฐที่ร้อนจัดอย่างฟลอริด้า ที่ความลึก 200 เมตร ใต้ท้องทะเล อุณหภูมิของน้ำจะอยู่ที่ต่ำกว่า 15 องศาเซลเซียสตลอดปี

Leona Philpot – data center ใต้น้ำตัวแรก

ส่ง Leona Philpot ลงใต้ทะเลที่ความลึก 11 เมตร Credit: Microsoft

ตามที่ได้กล่าวไปข้างต้น ทีมงาน Natick ได้ส่ง ‘Leona Philpot’ โปรโตไทป์ตัวแรกลงไปใต้ท้องทะเลลึก 11 เมตรเป็นเวลา 105 วัน ตลอดเวลาการทดลองนี้ pod ได้ใช้พลังงานไปเพียง 3% ของพลังงานที่ถูกใช้ใน data center ที่ใช้ระบบทำความเย็นแบบดั้งเดิม โดยมีอุณหภูมิเฉลี่ยนประมาณเดียวกันหรือต่ำกว่า นอกจากนี้ pod ยังปลอดภัยจากความเสี่ยงต่ออุปกรณ์ต่างๆเพราะมีความเป็นสูญญากาศปราศจากละอองน้ำและฝุ่น

ข้อมูลทั้งหมดใน pod ของ Natick จะถูก encrypt และใช้มาตรการด้านความปลอดภัยมาตรฐานเดียวกับ data center อื่นๆของไมโครซอฟต์ และแม้ยากที่จะมีใครเข้าถึง data center ใต้ทะเลเอง ตัว pod ยังมีเซ็นเซอร์คอยตรวจตราสิ่งรอบๆตัวรวมทั้งผู้เยี่ยมชมที่ไม่ได้รับเชิญ

Data center ที่เป็นมิตรกับสิ่งแวดล้อม

อีกเป้าประสงค์หนึ่งของ Project Natick นี้คือสร้าง data center ที่เป็นมิตรกับสิ่งแวดล้อม โดยทีมงานได้มีความพยายามให้ data center ใต้น้ำใช้พลังงานจากแหล่งที่ทดแทนได้ เช่นโรงไฟฟ้าพลังลม หรือการสร้างไฟฟ้าจากคลื่นหรือกระแสน้ำทะเล

การวาง data center ใต้น้ำใกล้กับแหล่งพลังงานดังกล่าวจะส่งผลดี 2 เรื่อง คือ 1) สามารถขอให้โรงไฟฟ้าจ่ายไฟฟ้าที่มีแรงดันต่ำกว่าไฟฟ้าตามสายทั่วไป ลดความจำเป็นในการแปลงไฟ และ 2) การใช้ไฟฟ้าจากแหล่งพลังงานจากธรรมชาติจะก่อให้เกิด redundancy ของแหล่งไฟฟ้าโดยอัตโนมัติ

ผู้อ่านอาจมีข้อสงสัยเพิ่มเติมในผลกระทบจากระบบแลกเปลี่ยนความร้อนซึ่งจะระบายน้ำที่มีอุณหภูมิสูงกว่าปกติออกสู่ภายนอก ในส่วนนี้ทางทีมงาน Natick ได้ศึกษามาแล้วว่าการระบายน้ำออกก่อให้เกิดความเปลี่ยนแปลงอุณหภูมิน้อยมากจึงไม่ส่งผลกระทบต่อสิ่งแวดล้อม

ความท้าทายที่ต้องสู้กันต่อไป

หนึ่งในความท้าทายที่ทีมงานขบคิดกันมาตั้งแต่เริ่มคือการรับมือกับสัตว์น้ำจำพวกเพรียงทะเลที่จะมาเกาะอาศัยอยู่บน pod และดึงดูดสัตว์น้ำอื่นๆเข้ามาสร้างระบบนิเวศน์ ตัว pod เองนั้นถูกออกแบบให้การกลายมาเป็นบ้านของสัตว์ทะเลไม่เป็นอุปสรรคต่อการหมุนเวียนของความร้อน แต่จุดที่น่ากังวลใจคือบริเวณระบบแลกเปลี่ยนความร้อนภายนอกที่อาจโดนสิ่งมีชีวิตเหล่านี้ก่อกวนได้ง่าย

สภาพ pod ที่ถูกสิ่งมีชีวิตใต้น้ำมาอาศัยเป็นบ้าน Credit: Microsoft

ทีมงาน Natick เองได้มีการทดลองแก้ปัญหานี้หลายวิธี เช่นการใช้วัสดุที่ต้านการเกาะตัวของสิ่งมีชีวิตใต้ทะเล การไล่ด้วยรังสี UV หรือการใช้คลื่นเสียงรบกวน ทว่ายังไม่ได้ผลเป็นที่น่าพอใจนัก แม้ในการทดลองที่ผ่านมาจะไม่มีสัตว์ทะเลมารบกวนในส่วนของการแลกเปลี่ยนความร้อนเลยแม้แต่น้อย แต่ก็ยังนับเป็นหนึ่งในปัญหาที่ทีมงานต้องต่อสู้กันต่อไป

อีกหนึ่งปัญหาใหญ่ที่ทีมงานกังวลที่สุด คือปัญหาความเสียหายที่เกิดกับอุปกรณ์ภายใน pod เนื่องจาก pod ถูกออกแบบมาให้ไม่สามารถเข้าไปตรวจสอบข้างในได้ การซ่อมแซมจึงจะต้องถูกทำโดยอัตโนมัติหรือด้วยคำสั่งจากภายนอกเท่านั้น การแก้ปัญหาข้อนี้ประจวบเหมาะกับโครงการของ Microsoft เองที่กำลังพัฒนาโซลูชั่นการตรวจสอบปัญหาและแก้ไขโดยโดยไม่พึ่งพาคำสั่งของมนุษย์เพื่อไปใช้ใน data center อื่นๆเช่นกัน ฉะนั้นในอนาคตจะได้เห็นเทคโนโลยีนี้ถูกนำมาใช้ใน Natick แน่นอน

ยก pod ขึ้นจากน้ำ หลังการทดลอง 105 วัน Credit: Microsoft

ด้วยความต้องการใช้งาน data center ที่สูงขึ้นทุกวัน การคิดค้นพัฒนาเทคโนโลยี data center ที่ทั้งทำงานได้อย่างมีประสิทธิภาพและเป็นมิตรกับสิ่งแวดล้อมจึงเข้ามามีบทบาทสำคัญในการก้าวไปสู่อนาคต อีกไม่นาน เราอาจได้เห็นการก่อสร้าง data center มากขึ้นเรื่อยๆ

หรืออาจจะไม่เห็นเลย เพราะพวกมันจะย้ายลงไปอยู่ใต้ทะเลแล้ว

ที่มา: http://spectrum.ieee.org/computing/hardware/want-an-energyefficient-data-center-build-it-underwater

ที่มา: https://www.techtalkthai.com/microsofts-underwater-data-center/

https://www.facebook.com/rmutphysics/posts/1363933143671501

 

ญี่ปุ่นเตรียมสร้าง TSUBAME 3.0 AI Supercomputer ความเร็ว 47 Petaflops

Tokyo Institute of Technology ได้ออกมาประกาศถึงแผนการสร้าง AI Supercomputer ที่เร็วที่สุดในญี่ปุ่นตัวใหม่ ภายใต้ชื่อ TSUBAME 3.0 ที่จะมีความเร็วสูงถึง 47 Petaflops ด้วยการใช้เทคโนโลยี GPU เป็นหลัก

Credit: Tokyo Institute of Technology

 

TSUBAME 3.0 นี้จะถูกพัฒนาโดยใช้เทคโนโลยีจาก HPE/SGI ร่วมกับ NVIDIA โดยใช้ SGI ICE XA Cluster จำนวน 540 Node ซึ่งแต่ละ Node จะติดตั้ง 2x Intel Xeon E5-2680 v4, 4x NVIDIA Tesla P100 GPU, 256GB RAM และเชื่อมต่อเครือข่ายด้วย Intel 100Gbps Omni-Path เพื่อสร้างระบบเครือข่ายสำหรับเชื่อมต่อกับระบบ Storage จาก Data Direct Networks (DDN) ที่มีความจุ 15.9 Petabytes และมีความเร็ว 150GBps บน Lustre File System

นอกจากประเด็นเรื่องของความเร็วที่สูงมากถึง 47 Petaflops แล้ว ประเด็นทางด้านการประหยัดพลังงานนั้นก็ถือว่าน่าสนใจ เพราะ TSUBAME 3.0 นี้มีค่า Power Usage Effectiveness (PUE) ถึง 1.033 และน่าจะทำให้ TSUBAME 3.0 นี้เข้าไปอยู่ใน Top 10 ของการจัดอันดับ Green500 ได้อย่างแน่นอน

TSUBAME 3.0 นี้จะถูกนำมาใช้ในเชิงการศึกษาและการวิจัยของมหาวิทยาลัยและภาคเอกชนเป็นหลัก รวมถึงจะยังทำหน้าที่เป็นโครงสร้างพื้นฐานสำหรับการบริการข้อมูลแก่มหาวิทยาลัยชั้นนำในญี่ปุ่นอีกด้วย

 

ที่มา: https://www.top500.org/news/next-generation-tsubame-will-be-petascale-supercomputer-for-ai/ , https://blogs.nvidia.com/blog/2017/02/16/tsubame3-ai-supercomputer/

ที่มา: https://www.techtalkthai.com/japan-is-going-to-build-tsubame-3-0-ai-supercomputer-with-47-petaflops/

https://www.facebook.com/rmutphysics/posts/1355442951187187

AI จาก Carnegie Mellon University เอาชนะผู้เล่น Poker มืออาชีพได้แล้ว

นับเป็นอีกก้าวที่สำคัญของวงการ Artificial Intelligence (AI) เมื่อ AI จาก Carnegie Mellon University สามารถแข่งขันเอาชนะผู้เล่น Poker มืออาชีพได้ หลังจากที่ก่อนหน้านี้ AI สามารถเอาชนะผู้เล่นมืออาชีพในการแข่งหมากล้อมไปได้แล้ว

Credit: Wikipedia

 

ความท้าทายในการพัฒนา AI สำหรับแข่ง Poker นี้ก็คือการอ่านเกมว่าคู่แข่งกำลังหลอกเราหรือไม่ และการออกแบบ AI ให้สามารถเรียนรู้ที่จะหลอกคู่แข่งฝั่งตรงข้ามได้ด้วย โดยในการทดลองครั้งนี้ได้ใช้ Texas Hold ‘Em แบบออนไลน์ในการแข่งขัน

Software ที่ใช้ในการทดลองนี้ถูกตั้งชื่อว่า Libratus ซึ่งทำงานอยู่บน Pittsburgh Supercomputing Center แห่ง Monroeville โดยการตัดสินใจของ Libratus ในการเล่นแต่ละตานี้ออกจะช้าอยู่เสียหน่อยและทำให้เหล่าผู้เล่นมืออาชีพต้องรอคอยจนหงุดหงิดกันไปบ้าง แต่เมื่อเวลาผ่านไป 20 วัน Libratus ก็สามารถเอาชนะผู้เล่นมืออาชีพทั้งหมดที่เข้าร่วมทดสอบในโครงการนี้ไปได้ และสร้างกำไรรวมอยู่ที่ 1.8 ล้านเหรียญหรือราวๆ 63 ล้านบาท (ซึ่งผู้เล่นไม่ต้องจ่ายเงินจำนวนนี้จริงๆ เพราะเป็นแค่แต้มในเกม) โดย Tuomas Sandholm และ Noam Brown นักวิทยาศาสตร์แห่ง Carnegie Mellon University ที่พัฒนา Libratus ก็ได้เฉลิมฉลองให้กับชัยชนะในครั้งนี้

อย่างไรก็ดี เมื่อเดือนมกราคมที่ผ่านมา ทาง University of Alberta ก็ได้มีการพัฒนา DeepStack ระบบ AI ที่เอาชนะผู้เล่น Poker มืออาชีพไปได้ก่อนแล้วเช่นกัน และยังชนะด้วยคะแนนที่สูงกว่า Libratus ถึง 3 เท่า แต่ทางผู้พัฒนา Libratus ก็ได้ออกมาชี้จุดต่างว่าผู้เล่น Poker มืออาชีพที่แข่งกับ Libratus นี้เก่งกว่าผู้เช่นที่ทดสอบกับ DeepStack

การมาของ Poker Bot ที่เก่งกาจเหล่านี้อาจทำลายวงการ Poker Online ทั่วโลกได้ เพราะสามารถถูกนำไปใช้ทุจริตเพื่อแข่งขัน Poker ออนไลน์เพื่อเอาชนะและรับเงินเดิมพันอย่างต่อเนื่อง ทำให้เหล่าผู้พัฒนาเกม Poker Online ต้องคอยสอดส่องและพัฒนาเทคโนโลยี Fraud Detection แบบใหม่ๆ ขึ้นมาตรวจจับ

อีกประเด็นที่น่าสนใจมากก็คือ อัลกอริธึมที่ใช้ในการพัฒนา Libratus นี้เป็น General Purpose Algorithm ที่สามารถนับไปปรับใช้กับงานอื่นๆ รวมถึง Cybersecurity ได้ด้วยเช่นกัน

ที่มา: http://talkincloud.com/cloud-computing/computer-just-beat-poker-pros-achieving-major-ai-milestone

ที่มา: https://www.techtalkthai.com/ai-from-carnegie-mellon-university-won-professional-poker-players/

https://www.facebook.com/rmutphysics/posts/1353425094722306

แฮ็คเกอร์รุ่นเยาว์วัย 14 ปี พบช่องโหว่ XSS กระทบกว่า 2,000,000 เว็บไซต์

อายุไม่ใช่ประเด็น เมื่อสองแฮ็คเกอร์น้อยวัย 14 ปีชาวเลบานอน Karim Rahal และ Ibram Marzouk ประกาศพบช่องโหว่ Cross-site Scripting หลายรายการบน HTML Comment Box ซึ่งถูกใช้งานบนเว็บไซต์ทั่วโลกกว่า 2,000,000 เว็บไซต์

Credit: Ignatov/ShutterStock

ช่องโหว่ที่ค้นพบเป็นช่องโหว่บายพาสระบบกรอง XSS ซึ่งช่วยให้แฮ็คเกอร์สามารถแทรกโค้ดเข้าไปในกล่อง Comment ของเว็บไซต์ เพื่อแอบโจมตีผู้ใช้ทั่วไปที่เข้าถึงหน้าเพจดังกล่าวได้ ที่น่าตกใจคือ เทคนิคการบายพาสที่ทั้ง 2 คนใช้ไม่ได้มีความซับซ้อนอะไร เพียงแค่ใส่ Tag < และ > 2 ครั้ง และปิดท้ายด้วยเครื่องหมาย “;” เท่านั้น ก็สามารถแทรกโค้ดสคริปต์เข้าไปได้ทันที (คาดว่านักพัฒนาคงใช้วิธีการกรอง XSS โดยการตัด Tag < และ > ออก 1 ครั้ง)

“ผมใช้ Google Dork ง่ายๆ ในการค้นหาว่ามีกี่เว็บไซต์ที่ใช้กล่อง Comment ของ 3rd Party รายดังกล่าว แล้วก็ต้องตกใจเป็นอย่างมากเมื่อผลลัพธ์ประมาณ 2,000,000 เว็บไซต์ปรากฏให้เห็น” — Rahal ระบุ

แฮ็คเกอร์หนุ่มทั้ง 2 คนไม่สามารถติดต่อกับนักพัฒนาเจ้าของ HTML Comment Box ในตอนแรก จนกระทั่ง Detectify ผู้ให้บริการ Web Scanner ชื่อดังเชิญเด็กทั้งสองเข้าร่วม Detectify Crowdsource ซึ่งเป็น Bug Bounty Program สำหรับให้นักวิจัยจากทั่วโลกแจ้งช่องโหว่ของเว็บไซต์ต่างๆ

ขณะนี้นักพัฒนาของ HTML Comment Box ทราบถึงช่องโหว่ XSS ดังกล่าว และได้ทำการอุดช่องโหว่เรียบร้อยภายใน 1 ชั่วโมงหลังได้รับรายงานจาก Detecify

ที่มา: https://www.theregister.co.uk/2017/01/24/kid_hackers_break_xss_defences_find_hack_hole_in_2_million_websites/

ที่มา: https://www.techtalkthai.com/14-year-old-hackers-found-xss-vulns/

https://web.facebook.com/rmutphysics/posts/1334132656651550

Google และนักวิจัยทั่วโลก เริ่มพัฒนา AI ที่สร้าง AI ใหม่ๆ ขึ้นมาได้เอง

เป็นอีกก้าวของวงการ AI ที่น่าสนใจ เมื่อ AI จะเริ่มถูกนำมาใช้สร้าง Software และ AI ใหม่ๆ ที่มีประสิทธิภาพสูงยิ่งขึ้นกว่าแต่ก่อน

Credit: ShutterStock.com

 

แนวโน้มของการพัฒนา Artificial Intelligence (AI) เพื่อนำมาใช้ปรับปรุง Software และสสร้ง AI ใหม่ๆ ขึ้นมานั้นกำลังกลายเป็นหัวข้อที่น่าสนใจ ตัวอย่างหนึ่งจากทีมนักวิจัยจาก Google Brain นั้นก็ได้เคยทำการพัฒนา AI ขึ้นมาเรียนรู้และพัฒนา Software ขึ้นมาประมวลผลข้อมูลด้านภาษาได้มีประสิทธิภาพสูงกว่า Software ที่พัฒนาขึ้นมาโดยมนุษย์แล้ว

นอกจากนี้ก็ยังมีกลุ่มอื่นๆ ที่เริ่มพัฒนา AI ที่ใช้ในการพัฒนา AI ที่ดียิ่งขึ้นต่อไปอีกมากมาย ไม่ว่าจะเป็น OpenAI, MIT, University of California, Berkeley และ Google DeepMind ซึ่งหากแนวคิดนี้ประสบความสำเร็จได้ด้วยดี การพัฒนาระบบ Machine-Learning Software ก็จะพัฒนาก้าวกระโดดต่อไปอย่างรวดเร็ว และสามารถแก้ไขปัญหาการขาดแคลนผู้เชี่ยวชาญทางด้าน AI ลงไปได้อีกระดับหนึ่ง

ปัจจุบันนี้การนำ AI หรือ Machine Learning ไปใช้แก้ปัญหาใดๆ นั้น จะต้องอาศัยบุคลากรผู้มีความรู้ในเชิงลึกสำหรับปัญหาที่ต้องการจะแก้ไข และต้องอาศัยผู้เชี่ยชาญทางด้านข้อมูลและการประมวลผล การพัฒนาระบบ AI ที่ใช้สร้าง AI ขึ้นมาได้เองนั้นจะสามารถแก้ไขปัญหาการขาดแคลนบุคคลกลุ่มหลังได้เป็นอย่างดี และช่วยเร่งให้เราสามารถแก้ไขปัญหาใหม่ๆ เพิ่มขึ้นได้อีกมากมาย

ก็ค่อนข้างน่าติดตามไม่น้อยว่าอนาคตของวงการ AI จะพัฒนาไปอย่างรวดเร็วแค่ไหนหลังจากนี้ครับ

ที่มา: https://www.technologyreview.com/s/603381/ai-software-learns-to-make-ai-software/?set=603397

ที่มา: https://www.techtalkthai.com/google-and-many-researchers-are-building-ai-that-can-create-new-ai/

https://web.facebook.com/rmutphysics/posts/1325167550881394

ผู้ป่วยเฮ! รพ.จุฬาภรณ์ใช้ “Hyperthermia” ทำลายมะเร็งได้ทุกตำแหน่ง ทุกระยะ

ช่วยกันลดผู้ป่วยโรคมะเร็ง เพื่อเป็นบุญช่วยกันแชร์
 ××××
ผู้ป่วยมะเร็งเฮ! รพ.จุฬาภรณ์ นำเข้าเครื่อง Thermotron-RF8 ราคากว่า 50 ล้านบาท ใช้ความร้อน 43 องศาทำลายเซลล์มะเร็งได้ทุกตำแหน่ง ทุกระยะโรค ร่วมกับการรักษาแนวทางอื่น ระบุให้ผลดียิ่งขึ้น ช่วยผู้ป่วยเข้าถึงบริการ
 ××××
ศ.นพ.พิทยภูมิ กล่าวว่า หลักการทำงานของเครื่องคือ การใช้คลื่นแม่เหล็กไฟฟ้าที่ให้พลังงานความร้อนที่อุณหภูมิ 43 องศาเซลเซียส ซึ่งเป็นอุณหภูมิที่ทำลายเซลล์มะเร็งได้ เนื่องจากเซลล์มะเร็งเป็นเนื้อร้าย ไม่มีความยืดหยุ่นทำให้เก็บกักความร้อนจนทำลายตัวเอง ขณะที่เนื้อเยื่อปกติมีความยืดหยุ่นจะถ่ายเทความร้อนออกสู่ร่างกายเอง โดยไม่ส่งผลใดๆ ทั้งนี้ สามารถทำลายได้ทั้งเซลล์มะเร็งที่อยู่ไม่ลึกจากผิวหนัง และลึกลงไปภายในร่างกาย ใช้ทำการรักษาได้ในเกือบทุกตำแหน่งอวัยวะ แต่เป็นแบบเจาะจงได้ตรงตำแหน่งก้อนเนื้องอก ทำให้มีขนาดก้อนที่เล็กลงหรือหยุดการเจริญเติบโต และรักษาได้ทุกระยะ เป็นทางเลือกสำหรับผู้ป่วยมะเร็งทุกชนิด
  ××××
“การทำงานจะได้ผลดีเมื่อใช้ร่วมกับการรักษาแนวอื่น ทั้งการฉายรังสี และการให้เคมีบำบัด ขึ้นอยู่กับการวินิจฉัยของแพทย์ ซึ่งข้อดีคือช่วยให้ผู้ป่วยไม่ทรมาน ลดผลข้างเคียงจากการรักษาแนวอื่น เช่น ลดการฉายรังสีเหลือ 50-60% แต่ผลการรักษาเท่ากัน อาการข้างเคียงไม่มี ซึ่งเดิมทีหากฉายรังสี 100% ผู้ป่วยอาจรับไม่ไหว หรือผู้ป่วยที่มีปัญหาเรื่องตับอ่อนจะรักษายากมาก เพราะผ่าตัดหรือฉายรังสีไม่ได้ ต้องใช้เคมีบำบัด ซึ่งอาจได้ผล 30-40% แต่หากใช้วิธีนี้ร่วมด้วย จะทำให้ผลการรักษาเพิ่มขึ้นอีก” ผอ.รพ.จุฬาภรณ์ กล่าว
ที่มา http://www.manager.co.th/qol/viewnews.aspx?NewsID=9570000031813

ที่มา: http://www.vip-groups.com/kh_detail.php?kh_id=3689

https://web.facebook.com/rmutphysics/posts/1324891924242290

ในปี 2020 งานของ Data Scientist จะถูกจัดการโดยอัตโนมัติเกินกว่า 40%

ในปี 2020 งานของ Data Scientist จะถูกจัดการโดยอัตโนมัติเกินกว่า 40%

Gartner ได้ออกมาทำนายถึงแนวโน้มในอนาคตสำหรับวงการ Data Science สำหรับปี 2020 เอาไว้ ซึ่งทางทีมงาน TechTalkThai เห็นว่าค่อนข้างน่าสนใจจึงขอนำมาสรุปให้ได้อ่านกันดังนี้ครับ

Credit: ShutterStock.com
  • ภายในปี 2020 งานในสาย Data Science จะถูก Automate เกินกว่า 40% และทำให้ประสิทธิภาพในการทำงานโดยรวมของเหล่า Data Scientist สูงขึ้น
  • จะมีกลุ่มคนที่ถูกเรียกว่า Citizen Data Scientist ซึ่งเป็นกลุ่มคนที่คอยสร้าง Model ใหม่ๆ ด้วยการนำเทคนิคการวิเคราะห์ข้อมูลเชิงลึกมาใช้ แต่คนกลุ่มนี้จะไม่ใช่คนที่มาจากสายสถิติหรือสายวิเคราะห์ข้อมูล แต่จะเป็นคนในสายงานอื่น
  • Citizen Data Scientist นี้จะเป็นคนกลุ่มที่ช่วยเติมเต็มช่องว่างระหว่างการทำ Self-service Analytics โดยเหล่าผู้ใช้งานในเชิงธุรกิจ และเทคนิคการวิเคราะห์ข้อมูลแบบซับซ้อนโดยเหล่า Data Scientist
  • เหล่าผู้ผลิตซอฟต์แวร์ทางด้าน Data Analytics จะต้องแข่งขันกันที่ความง่ายในการใช้งาน และการทำงานต่างๆ โดยอัตโนมัติมากขึ้น เพื่อให้เหล่าองค์กรสามารถนำไปใช้สร้างขีดความสามารถในการแข่งขันกันได้มากขึ้น
  • ภายในปี 2019 กลุ่ม Citizen Data Scientist มีแนวโน้มที่จะทำการวิเคราะห์ข้อมูลแบบซับซ้อนเป็นปริมาณมากกว่ากลุ่ม Data Scientist เพราะการขาดแคลนของ Data Scientist และความง่ายของเครื่องมือต่างๆ ที่ทำให้กลุ่ม Citizen Data Scientist สามารถทำงานได้มากขึ้น
  • แหล่งข้อมูลจะมีจำนวนมหาศาลขึ้น และก็จะมี Data Type ที่มีความซับซ้อนสูงขึ้น

สำหรับผู้ที่สนใจรายงานฉบับเต็ม สามารถซื้อได้ที่ https://www.gartner.com/doc/3531618 เลยนะครับ

ที่มา: http://www.gartner.com/newsroom/id/3570917

ที่มา:  https://www.techtalkthai.com/gartner-says-40-percent-of-data-scientists-tasks-will-be-automated-by-2020/

https://www.facebook.com/rmutphysics/posts/1321674287897387