Khóa học là cơ hội cho các doanh nghiệp công nghệ, các bạn trẻ khởi nghiệp ứng dụng công nghệ có cơ hội được tiếp cận các kiến thức về dữ liệu lớn. Ảnh: Hà Thế An.
Đây được xem là chương trình đào tạo duy nhất tại Việt Nam về chuyên viên phân tích dữ liệu lớn – Big data.
Mục tiêu của khóa đào tạo là cung cấp cho học viên các kiến thứccần thiết về các nội dung như sau:
Hadoop: là nền tảng nguồn mở viết bằng Java hỗ trợ xử lý và lưu trữ các tập dữn liệu cực lớn trên môi trường tính toán phân tán. Cốt lõi của Hadoop gồm phần lưu trữ (Hệ thống tập tin phân tán Hadoop – HDFS) và phần xử lý (MapReduce).
HBase: Cơ sở dữ liệu phân tán, phi-quan hệ, nguồn mở viết bằng Java.
Hive: Tiêu chuẩn để truy vấn SQL tương tác trên dữ liệu lớn trong Hadoop.
Spark: Là công cụ nguồn mở, có khả năng xử lý nhanh chóng, tiện dụng và phân tích, có thể xử lý một lượng dữ liệu lớn với độ trễ thấp mà chương trìnhMapReduce thông thường không thể thực hiện.
Pig: Công cụdùng để phân tích các tập dữ liệu lớn được biểu diễn dưới dạng data flows.Pig thường dùng chung với Hadoop. Người sử dụng có thể thực hiện các thao tác dữ liệu trên Hadoop với Apache Pig.
Sqoop: Công cụ có khả năng rút trích dữ liệu từ các kho dữ liệu phi-Hadoop, chuyển đổidữ liệu thành định dạngHadoop cóthể xử lý và sau đó tải dữliệu vào trong hệ thống tập tin HDFS.
Khóa học có 30% thời gian thảo luận trực tiếp và 70% thời gian dành cho thực hành. Học viên tham gia khóa học phải có kiến thức cơ bản về ngôn ngữ lập trình Java, hệ điều hành Linux và SQL.
Cuối khóa học, học viên sẽ được cấp chứng chỉ hoàn thành khóa học Chuyên viên phân tích dữ liệu lớn – Big Data do NIIT cấp.
Khóa học sẽ bắt đầu khai giảng vào ngày 24/07 sắp tới (ca tối) và ngày 29/07 (ca ngày).
Học viên quan tâm có thể tham khảo các thông tin và đăng ký tham gia khóa học tại đây.
Big Data là thuật ngữ dùng để chỉ một tập hợp dữ liệu rất lớn, với quy mô vượt quá khả năng nắm bắt và xử lý của các công cụ phần mềm truyền thống trong khoảng thời chấp nhận. Big Data còn là tập hợp các kỹ thuật và công nghệ đòi hỏi cách tích hợp mới nhằm khám phá những giá trị tiềm ẩn to lớn từ những tập hợp dữ liệu lớn, đa dạng, phức tạp.
|