MongoDB + Hadoop กับการประมวลผลข้อมูลที่มีความซับซ้อนของข้อมูลสูง และขนาดใหญ่
Channel:
Subscribers:
332
Published on ● Video Link: https://www.youtube.com/watch?v=p2cB1Xsv1lk
ในงานประมวลผลแบบแยกส่วน (Batch Aggregation) สามารถใช้งานฟังก์ชั่นของ MongoDB ทำการหาคำตอบหรือการวิจัยข้อมูลได้ดี แต่ในบางงานทีข้อมูลมีความซับซ้อนมาก เราสามารถใช้ Hadoop ซึ้งมันถูกออกแบบมาใช้ประมวลผลงานแบบ Batch และมีความซับซ้อนของข้อมูลสูงช่วยในการประมวลผล
โดยข้อมูลดิบจะถูกเก็บไว้ที่ MongoDB cluster จากนั้นจะถูกส่งไปประมวลผลที่ Hadoop cluster และผลลัพธ์จะกลับมาเก็บไว้ที่ MongoDB
ตัวอย่าง Enron E-mails ฐานข้อมูลขนาดใหญ่ เก็บข้อมูลการส่งอีเมล์ประมาณ 500,000 อีเมล์
https://github.com/mongodb/mongo-hadoop/
System
vm:MongoDB
MasterServer x1 : 2cpu 4 core 4GB Ram 20GB-HD
ConfigServer x3 : 1cpu 2 core 1GB Ram 20GB-HD
SharedServer x2 : 1cpu 2 core 2GB Ram 20GB-HD
vm:Hadoop
x2 node server
Other Videos By pongmadee
Tags:
Apache Hadoop (Software)
MongoDB (Software)