Live Chat Software by Kayako
 News Categories
(20)Microsoft Technet (2)StarWind (6)TechRepublic (4)ComuterTips (1)SolarWinds (1)Xangati (1)MyVirtualCloud.net (28)VMware (8)NVIDIA (9)VDI (1)pfsense vRouter (4)VEEAM (3)Google (2)RemoteFX (1)developers.google.com (1)MailCleaner (1)Udemy (1)AUGI (2)AECbytes Architecture Engineering Constrution (7)VMGuru (2)AUTODESK (9)storageioblog.com (1)Atlantis Blog (23)AT.COM (2)community.spiceworks.com (1)archdaily.com (16)techtarget.com (3)hadoop360 (3)bigdatastudio (1)virtualizetips.com (1)blogs.vmware.com (3)VECITA (1)vecom.vn (1)Palo Alto Networks (4)itnews.com.au (2)serverwatch.com (1)Nhịp Cầu đầu tư (3)VnEconomy (1)Reuters (1)Tom Tunguz (1)Medium.com (1)Esri (1)www.specommerce.com (1)tweet (1)Tesla (1)fool.com (6)ITCNews (1)businessinsider.com (1)hbr.org Harvard Business Review (1)Haravan (2)techcrunch.com (1)vn.trendmicro.com (3)thangletoan.wordpress.com (3)IBM (1)www.droidmen.com (2)blog.parallels.com (1)betanews.com (9)searchvmware.techtarget.com (1)www.bctes.com (1)www.linux.com (4)blog.capterra.com (1)theelearningcoach.com (1)www.examgeneral.com (1)www.wetutoringnation.com (1)chamilo.org/ (1)www.formalms.org (1)chalkup.co (1)www.mindonsite.com (5)moodle.org (4)moodle.croydon.ac.uk (1)opensource.com (1)1tech.eu (1)remote-learner.net (1)paradisosolutions.com (2)sourceforge.net (1)elearningindustry.com (24)searchbusinessanalytics.techtarget.com (1)nscs.gov.sg (1)virten.net (1)fastest.com.vn (2)elearninglearning.com (2)www.computerweekly.com (1)youtube.com (1)www.techradar.com (3)computer.howstuffworks.com (2)techz.vn (2)techsignin.com (1)itworld.com (20)searchsecurity.techtarget.com (1)makeuseof.com (1)nikse.dk (1)4kdownload.com (1)thegioididong.com (1)itcentralstation.com (1)www.dddmag.com (2)Engenius (1)networkcomputing.com (1)woshub.com (1)hainam121.wordpress.com (1)www.lucidchart.com (1)www.mof.gov.vn (3)www.servethehome.com (6)www.analyticsvidhya.com (1)petewarden.com (2)ethinkeducation.com
RSS Feed
News
Sep
25
What is storage at the edge?
Posted by Thang Le Toan on 25 September 2018 12:12 AM

Storage at the edge is the collective methods and technologies that capture and retain digital information at the periphery of the network, as close to the originating source as possible. In the early days of the internet, managing storage at the edge was primarily the concern of network administrators who had employees at remote branch offices (ROBOS). By the turn of the century, the term was also being used to describe direct-attached storage (DAS) in notebook computers and personal digital assistants (PDAs) used by field workers. Because employees did not always remember to back up storage at the edge manually, a primary concern was how to automate backups and keep the data secure. 

Today, as more data is being generated by networked internet of things (IoT) devices, administrators who deal with storage at the edge are more concerned with establishing workarounds for limited or intermittent connectivity and dealing with raw data that might need to be archived indefinitely. The prodigious volume of data coming from highway video surveillance cameras, for example, can easily overwhelm a traditional centralized storage model. This has led to experiments with pre-processing data at its source and centralizing storage for only a small part of the data.

In the case of automotive data, for example, log files stored in the vehicle might simply be tagged so should the need arise, the data in question could be sent to the cloud for deeper analysis. In such a scenario, intermediary micro-data centers or high-performance fog computing servers could be installed at remote locations to replicate cloud services locally. This not only improves performance, but also allows connected devices to act upon perishable data in fractions of a second. Depending upon the vendor and technical implementation, the intermediary storage location may be referred to by one of several names including IoT gateway, base station or hub.


Read more »



Sep
13

Bắt đầu như một doanh nghiệp dịch vụ sao lưu dựa trên đám mây đòi hỏi nắm bắt thị trường mục tiêu, một sự kết hợp vững chắc của các nhà cung cấp dự phòng và công thức định giá

Vì vậy, bạn đang nghĩ bạn muốn thêm bản sao lưu đám mây vào danh sách dịch vụ của mình. Hôm nay, có rất nhiều sự nhầm lẫn xung quanh những gì cung cấp của bạn nên bao gồm, nơi lưu trữ dữ liệu và ứng dụng của khách hàng, chi phí và các câu hỏi khác. Một phần của sự nhầm lẫn đến từ rất nhiều nhà cung cấp cạnh tranh cho sự chú ý của bạn - từ các giải pháp sao lưu, dịch vụ lưu trữ, đến các nhà cung cấp dịch vụ đám mây và hơn thế nữa.

Sai lầm mà nhiều nhà cung cấp dịch vụ được quản lý (MSP) tạo ra là bắt đầu với công nghệ sẵn có và sau đó làm việc để tạo ra một đề nghị xung quanh nó. Bạn sẽ cố gắng "vừa vặn một cái chốt vuông vào lỗ hổng trên đám mây" nếu bạn làm điều đó. Những gì bạn cần làm là để bắt đầu với doanh nghiệp của bạn và làm việc hướng tới công nghệ. Để hỗ trợ, tôi đã vạch ra bốn bước bạn có thể làm theo để có được doanh nghiệp dịch vụ sao lưu đám mây của bạn được xác định và sẵn sàng bán.

Bước 1: Xác định thị trường mục tiêu của bạn

Bạn đã biết thị trường của bạn là ai nhưng hãy nghĩ về khách hàng của bạn từ quan điểm về lượng dữ liệu họ sử dụng, các ứng dụng họ làm việc và mức độ quan trọng của cả hai. Khách hàng của bạn có thích ý tưởng sử dụng đám mây không? Họ có mở để lưu trữ các phần cơ sở hạ tầng của họ trong đám mây trong một thảm họa không? Những câu hỏi này và nhiều thứ khác cần được suy nghĩ, vì vậy bạn có thể xác định chính xác khách hàng sao lưu đám mây mục tiêu của bạn trông như thế nào - lý do là, khi bạn đã cạn kiệt bán cho cơ sở khách hàng hiện tại của mình, bạn biết loại khách hàng nào cần tìm để bán cho họ dịch vụ.

Bước 2: Chọn nhà cung cấp lưu trữ đám mây và sao lưu phù hợp

Hãy để tôi bắt đầu bằng cách chỉ ra rằng tôi đã sử dụng thuật ngữ "nhà cung cấp" số nhiều. Bạn có khả năng sẽ cần phải chọn một vài nhà cung cấp, trong tổng số, sẽ thủ công cung cấp dịch vụ của bạn. Ở mức tối thiểu, bạn sẽ cần chọn nhà cung cấp giải pháp sao lưu và nhà cung cấp bộ nhớ đám mây để khởi chạy một doanh nghiệp dịch vụ sao lưu đám mây. Nhưng trước khi bạn chỉ cần chạy đến nhà sản xuất phần mềm sao lưu tại chỗ của bạn và xem họ có tùy chọn đám mây hay không, thực sự nghĩ về nhu cầu của khách hàng mà bạn đã xác định trong bước đầu tiên. Dịch các nhu cầu kinh doanh đã xác định thị trường của bạn thành các yêu cầu công nghệ và tìm kiếm chúng cho các nhà cung cấp danh sách ngắn. Ví dụ, nếu tất cả khách hàng của bạn có ít nhất một ứng dụng quan trọng cần sao chép ảo vào đám mây để duy trì mức độ sẵn sàng cao, thì tìm kiếm của bạn cho các nhà cung cấp đám mây và sao lưu cần bao gồm khả năng đó. Dưới đây là danh sách đánh giá nhanh về những cân nhắc mà tôi cho là rất quan trọng:

  • Định giá - Nhiều nhà cung cấp lưu trữ đám mây có các mô hình định giá phức tạp. Điều này sẽ ảnh hưởng đến cách bạn định giá dịch vụ của mình. Hãy chắc chắn rằng nó đủ đơn giản để bạn có thể hiểu chính xác chi phí của bạn sao cho cung cấp dự phòng của bạn có thể dự đoán và sinh lời.
  • Các tầng lưu trữ - Không đi sâu vào chi tiết quá nhiều, gần như tất cả các lưu trữ đám mây chính đều có bộ nhớ nóng, ấm và lạnh. Mỗi cái có giá tốt hơn một chút cho mỗi GB, nhưng có những chi phí ẩn xung quanh thời gian truy xuất và phí đi ra giữa các biến khác. Hiểu mức độ dịch vụ bạn nhận được với mỗi loại và chọn những dịch vụ phù hợp với mô hình mong muốn của bạn.
  • Khả năng phục hồi - Khách hàng của bạn không quan tâm đến việc bạn sao lưu mọi thứ; họ quan tâm rằng bạn có thể giúp doanh nghiệp của họ hoạt động trở lại và hoạt động. Hãy tìm các nhà cung cấp sao lưu hỗ trợ nhu cầu khôi phục của bạn - ví dụ: khôi phục liên tục, thực thể ảo (P2V) và sao chép liên tục. Mỗi khả năng có thể trở thành một phần của việc cung cấp cơ sở của bạn, hoặc một sự gia tăng tùy chọn.

Bước 3: Nhận quyền định giá

Khách hàng của bạn không quan tâm đến việc bạn sao lưu mọi thứ; họ quan tâm rằng bạn có thể giúp doanh nghiệp của họ hoạt động trở lại và hoạt động.

Yếu tố này có tác động nhiều hơn đến việc khách hàng có mua hay không. Làm cho nó quá khó hiểu, quá tốn kém, thậm chí quá rẻ - bất cứ điều gì làm cho khách hàng tiềm năng của bạn không nhìn thấy giá trị - và họ có thể chỉ đơn giản là vượt qua. Có rất nhiều phần chuyển động, tổng cộng, thúc đẩy mô hình định giá của bạn trông như thế nào cho doanh nghiệp dịch vụ sao lưu đám mây của bạn. Điều này bao gồm chi phí, lao động, phần mềm, cơ sở hạ tầng, lưu trữ và bảo trì đám mây.

Tóm lại, bạn cần xác định tỷ lệ gánh nặng theo giờ của bạn (bao gồm chi phí kinh doanh có thể lập hóa đơn và không phải thanh toán được tính theo giờ) và chi phí dịch vụ của bạn (ví dụ: phần mềm, lưu trữ và chi phí đi ra), đưa ra một số giả định về dung lượng lưu trữ trung bình của khách hàng và quyết định tỷ suất lợi nhuận. Tính toán cơ bản cho định giá của bạn trông giống như sau:

Phần mềm + (Tỷ lệ gánh nặng x # giờ) + Chi phí lưu trữ / GB
Số GB

Bạn chỉ cần tăng tổng chi phí này để bao gồm biên lợi nhuận của mình và bạn có một mô hình định giá chi phí / GB đơn giản.

Bước 4: Bán dịch vụ sao lưu đám mây của bạn

Điều quan trọng nhất tôi có thể truyền đạt cho bạn trong bài viết này là thực tế là bạn không thực sự bán sao lưu đám mây. Bạn đang bán yên tâm, hoạt động thời gian hoạt động và liên tục kinh doanh . Để bán dịch vụ này, hãy bắt đầu bằng cách nói chuyện với khách hàng của bạn về nhu cầu kinh doanh của họ. Yêu cầu họ xác định dữ liệu, ứng dụng và hệ thống quan trọng đối với doanh nghiệp. Hỏi họ xem doanh nghiệp có thể tiếp tục chạy bao lâu mà không có những khối lượng công việc này. Khi bạn có tất cả đạn dược do khách hàng cung cấp này, bạn có thể thảo luận cách cung cấp chiến lược khôi phục và sao lưu đám mây cần thiết đáp ứng nhu cầu kinh doanh được xác định rõ ràng.

Có một số chính xác trong việc thực hiện điều này sẽ mất một thời gian và kinh nghiệm để có được 100% ngay, nhưng chiến lược trên là đúng. Nó rất tập trung vào khách hàng, cho phép khách hàng quyết định trả trước cái gì và cái gì không quan trọng, và nó cung cấp cho bạn tất cả ngữ cảnh cần thiết để chứng minh cách sao lưu đám mây có thể giúp đảm bảo doanh nghiệp vẫn hoạt động.

Tôi đã chỉ trầy xước bề mặt trên những gì nó cần để thực sự xác định và thiết lập một doanh nghiệp dịch vụ sao lưu đám mây. Tuy nhiên, bằng cách làm theo các bước cấp cao và đào sâu vào từng bước với một cái nhìn thấu đáo về chức năng, chi phí và giá trị của khách hàng, bạn sẽ sẵn sàng bổ sung một dịch vụ có thể dự đoán và mang lại lợi nhuận mà khách hàng của bạn muốn.


Read more »



Sep
12

Hành vi người dùng không thể đoán trước và các cơn bão khởi động có thể gây ra biến động sử dụng tài nguyên VDI suốt cả ngày. CNTT có thể thực hiện các bước để xác định và cắt giảm ảnh hưởng của những thay đổi này.

Trong bất kỳ triển khai VDI nào, việc sử dụng tài nguyên là điều bình thường.

Biến động nhỏ hơn trong việc sử dụng VDI có xu hướng liên quan đến hành vi người dùng cuối không thể đoán trước. Ví dụ: người dùng có thể quyết định phát video hoặc tải lên một tệp lớn, do đó gây ra mức tăng sử dụng tài nguyên. Tuy nhiên, các đột biến này thường ngắn ngủi và không gây ra bất kỳ sự cố nào miễn là mật độ máy tính để bàn ảo không quá cao.

Tuy nhiên, vấn đề sử dụng VDI lớn hơn là hoạt động tăng đột biến xảy ra do hoạt động của người dùng đồng thời. Người dùng có thể gây ra một cơn bão hoạt động, ví dụ, là kết quả của tất cả mọi người đăng nhập vào cùng một lúc vào buổi sáng. Những cơn bão khởi động này cuối cùng đã giảm dần, nhưng chúng có thể gây rối cao cho đến khi chúng hoạt động.

 

Làm thế nào để phát hiện biến động trong việc sử dụng VDI và đối phó với chúng

Xác định biến động sử dụng VDI thường dễ thực hiện. Chỉ cần sử dụng một máy tính để bàn ảo trên cơ sở hàng ngày có thể cung cấp cho các chuyên gia CNTT một cảm giác tốt về các mẫu hoạt động đang diễn ra.

Ví dụ, một chuyên gia CNTT có thể nhận thấy rằng hiệu suất trở nên chậm chạp lúc 9:00 sáng trong khoảng 10 phút, và sau đó một lần nữa vào khoảng giữa trưa khi mọi người đến ăn trưa. Mặc dù quan sát như vậy là chủ quan, CNTT có thể định lượng hiệu suất chậm chạp trong thời gian hoạt động nặng bằng cách sử dụng phần mềm giám sát hiệu suất .

Các chuyên gia CNTT cũng có thể sử dụng tự động hóa để quản lý các biến động sử dụng VDI bằng cách thực hiện phân phối lại tải công việc.

Chìa khóa để khắc phục các loại biến động hiệu suất này là tận dụng lợi thế của tự động hóa. Ví dụ, nếu các chuyên gia CNTT quan sát thấy một cơn bão VDI lớn xảy ra vào mỗi buổi sáng khi mọi người đến làm việc, họ có thể sử dụng tự động hóa để khởi động trước các máy ảo trước khi mọi người đến.

Các chuyên gia CNTT cũng có thể sử dụng tự động hóa để quản lý các biến động sử dụng VDI bằng cách thực hiện phân phối lại tải công việc.

Giả sử, ví dụ, CNTT biết rằng một nguồn lực lớn tăng đột biến xảy ra mỗi ngày vào buổi trưa. Tùy thuộc vào thành phần phần cứng nào đang được sử dụng quá mức, chúng có thể sử dụng một công cụ tự động hóa để tự động tăng thêm nút máy chủ và sau đó di chuyển một số máy ảo sang nút đó ngay trước khi đột biến tài nguyên xảy ra. Bằng cách này, có nhiều phần cứng hơn để đáp ứng nhu cầu.

Khi quá trình sử dụng tăng đột biến, CNTT có thể thiết lập việc triển khai tự động chuyển trực tiếp các máy ảo đó trở lại vị trí ban đầu và tắt nút máy chủ phụ để tiết kiệm chi phí điện và làm mát.

 

 


Read more »



Sep
4

Các cửa hàng VDI phải quản lý nhiều hơn các ứng dụng Windows truyền thống trong doanh nghiệp hiện nay. Họ cũng phải giải quyết các ứng dụng cụ thể của Apple cũng như ứng dụng dành cho thiết bị di động đầu tiên và hơn thế nữa.

Khi ngày càng có nhiều ứng dụng không phải Windows tiếp tục tăng lên, các cửa hàng VDI phải biết cách để chứa chúng hoặc người dùng sẽ bỏ qua CNTT và sử dụng mọi thứ cần thiết để hoàn thành công việc của họ.

Những ngày mà các ứng dụng Windows là trò chơi duy nhất trong khuôn viên CN của bạn đã là quá khứ. Nhiều ứng dụng hiện nay dựa trên web, trong đó đặt ra các vấn đề về tải rất khác nhau về triển khai VDI.

Cũng có sự hồi sinh của các ứng dụng không phải Windows chạy trên các nền tảng khác nhau, cho dù đó là một hệ thống lập bản đồ dựa trên nền tảng Linux hoặc ứng dụng hỗ trợ máy tính (CAD) , một ứng dụng chỉ có trên Apple macOS hoặc ứng dụng là thiết bị di động đầu tiên.

1. Nhóm Ứng dụng web

Thoạt nhìn, các ứng dụng web dường như hoàn toàn phù hợp với VDI. Tất cả người dùng cần là trình duyệt web và họ có thể truy cập tất cả các ứng dụng web của họ. Tuy nhiên, trên thực tế, các ứng dụng không phải của Windows có thể mang nhiều "hành lý" trên máy tính để bàn.

Nhiều ứng dụng chỉ hoạt động với một số trình duyệt web nhất định hoặc yêu cầu một số trình hỗ trợ cụ thể để có thể hoạt động. Một vài năm trước, một số tổ chức đã gặp phải các vấn đề quan trọng khi nâng cấp từ Internet Explorer 6, ví dụ, vì nhiều ứng dụng web tùy chỉnh sớm không hoạt động với bất kỳ trình duyệt nào khác. Nếu người dùng muốn làm việc với Google Chrome hoặc Mozilla Firefox, nhưng vẫn cần Internet Explorer 6 để chạy một ứng dụng cũ, các chuyên gia CNTT đã phải cài đặt ba trình duyệt khác nhau trên cùng 1 VDI image.

Một vấn đề khác là các công cụ như Java, Flash, Flex một công cụ thời gian chạy realtime phía máy khách "Java runtime client" cho các ứng dụng web, có chu kỳ cập nhật thường xuyên của riêng nó mà CNTT phải đối mặt giải quyết.

2. Nhóm Ứng dụng đầu tiên trên thiết bị di động

Ứng dụng dành cho thiết bị di động đầu tiên là một thách thức thực sự đối với VDI vì chúng thường có đối tác ứng dụng web không đầy đủ tính năng như phiên bản dành cho thiết bị di động.

Ví dụ: trang web của ngân hàng có thể khó hoạt động hơn ứng dụng dành cho thiết bị di động. Kết quả là, người dùng không thể ngồi ở bàn làm việc của họ với màn hình lớn trước mặt họ trong khi họ sử dụng điện thoại của họ để hoàn thành công việc vì ứng dụng di động dễ làm việc hơn.

Tại một thời điểm, các nhà cung cấp VDI đã phát triển các sản phẩm mà một máy tính để bàn sử dụng Google Android đang chạy trong một máy ảo trong một trung tâm dữ liệu, nhưng các sản phẩm này không cất cánh. Do đó, CNTT phải chạy Android trong máy ảo bên trong máy tính để bàn VDI để người dùng có thể truy cập phiên bản ứng dụng di động trên máy tính để bàn của họ hoặc ôm người dùng truy cập ứng dụng từ thiết bị di động .

3. Nhóm Ứng dụng đồ họa trên Linux

Các ứng dụng đồ họa Linux nằm trong số các ứng dụng không phải của Windows đã có một vị trí đặc biệt trong doanh nghiệp trong nhiều năm vì các chuyên gia CNTT đã phải quản lý chúng một cách riêng biệt khỏi hình ảnh VDI vì chúng không có cách nào để hỗ trợ Linux. Các ứng dụng này bao gồm hệ thống bản đồ hoặc máy trạm CAD.

CNTT bây giờ có thể tích hợp các ứng dụng Linux mạnh mẽ này vào một triển khai VDI dựa trên Windows truyền thống.

Với các ứng dụng Linux đồ họa, người dùng có một máy trạm Linux và một máy khách VDI Linux để truy cập vào máy tính để bàn của công ty. Trong vài năm qua, Linux đã xuất hiện trong cả hai sản phẩm VMware và Citrix VDI. Cùng với sự hỗ trợ VDI đã được hỗ trợVM cho các GPU phần cứng , cho phép cả ứng dụng bản đồ và CAD hoạt động tốt với VDI.

CNTT bây giờ có thể tích hợp các ứng dụng Linux mạnh mẽ này vào một triển khai VDI dựa trên Windows truyền thống. Trong một số trường hợp, thậm chí có thể có một khách hàng VDI bên trong máy tính để bàn VDI để cho phép truy cập vào các ứng dụng VDI Linux từ bên trong máy tính để bàn Windows VDI.

4. Nhóm Câu hỏi hóc búa về Mac

Các nhóm sáng tạo thường yêu cầu sử dụng máy Mac vì chúng có thể phù hợp hơn với công việc thiết kế trực quan hơn so với PC, đặc biệt là với VDI. Thông thường, CNTT cài đặt máy khách VDI trên máy Mac và cung cấp máy tính để bàn Windowscho nhóm quảng cáo.


Read more »



Aug
17
Apache Hadoop: Built for big data, insights, and innovation
Posted by Thang Le Toan on 17 August 2018 10:55 PM

An open source platform for the distributed processing of structured, semi- and unstructured data. Providing the platform for IBM and Hortonworks enterprise-grade distribution.

What is Apache Hadoop®?

Apache Hadoop offers highly reliable, scalable, distributed processing of large data sets using simple programming models. With the ability to be built on clusters of commodity computers, Hadoop provides a cost-effective solution for storing and processing structured, semi- and unstructured data with no format requirements.


Key Big Data Use Cases for Hadoop

  1. New data formats – Utilize new forms of semi- and unstructured data such as streaming audio and video, social media, sentiment and clickstream data that can’t be ingested into the Enterprise Data Warehouse (EDW). This data can provide more accurate analytic decisions in response to today’s new technologies such as Internet-of-Things (IOT), artificial intelligence(AI), cloud and mobile.  
  2. Data lake analytics:  Provide a platform for real-time, self-service access and advanced analytics for data users like data scientists, line of business owners (LOBs) and developers. The Hadoop-based data lake is the future of data science, an interdisciplinary field that combines machine learning, statistics, advanced analysis and programming.
  3. Data offload and consolidation: Optimize your Enterprise Data Warehouse (EDW) and streamline costs by moving “cold” or data not currently in use to a Hadoop-based data lake. Consolidating by moving siloed data to the data lake decreases costs, increases accessibility and drives better, more accurate decisions.

Learn more about Big Data

Features

100% Open Source

The IBM and Hortonworks partnership provides an integrated, open source Hadoop-based platform with the tools needed for advanced analytic workloads. Both companies are members of the Open Data Platform Initiative (ODPi), a multi-vendor standards association focused on advancing the adoption of Hadoop

Enterprise grade distribution

The combination of the Hortonworks platform with IBM Db2® Big SQL offers the benefits of Hadoop with added security, governance and machine learning capabilities. Db2 Big SQL is the first SQL-on-Hadoop solution that understands commonly used SQL syntax from other vendors and products such as Oracle, IBM Db2 and IBM Netezza®.

IBM and Hortonworks, better together

Build, govern, secure and quickly gain valuable analytic insights from your data using a single ecosystem of products and services. Benefit from combined collaboration and investment in the open source community, while removing concerns about connectivity and stability.

In the spotlight

Get started with Apache Hadoop®

IBM, in partnership with Hortonworks, offers Hortonworks Data Platform (HDP), a secure, enterprise-ready open source Hadoop distribution based on a centralized architecture. HDP, when used with IBM Db2 Big SQL, addresses a range of data-at-rest and data-in-motion use cases, provides data federation across the organization, powers real-time customer applications, and delivers robust analytics accelerating analytic decisioning.

Screen capture of getting started with Hadoop

Accelerate big data collection and dataflow management

Hortonworks DataFlow (HDF) for IBM, powered by Apache NiFi, is the first integrated platform that solves the challenges of collecting and transporting data from a multitude of sources. HDF for IBM enables simple, fast data acquisition, secure data transport, prioritized data flow and clear traceability of data from the edge of your network to the core data center. It uses a combination of an intuitive visual interface, a high-fidelity access and authorization mechanism and an always-on chain of custody (data provenance) framework.

Flow chart of Hortonworks DataFlow (HDF) for IBM

Accelerated and Stable Apache Hadoop®

The best way to move forward with Hadoop is to choose an installation package that simplifies interoperability. The Open Data Platform Initiative (ODPi) is a multi-vendor standards association focused on advancing the adoption of Hadoop in the enterprise by promoting the interoperability of big data tools. ODPi simplifies and standardizes the Apache Hadoop big data ecosystem with a common reference specification called the ODPi Core.

Products

Db2 Big SQL

Db2 Big SQL lets you access, query, and summarize data from any platform including databases, data warehouses, NoSQL databases, and more. Db2 Big SQL can concurrently exploit Apache Hive, HBase and Spark using a single database connection—even a single query.

Hortonworks on Power

Use Hortonworks Data Platform on IBM Power Systems™ to increase efficiency, maximize performance and accelerate insights.

IBM Big Replicate

This active-transactional replication technology delivers continuous availability, streaming backup, uninterrupted migration, hybrid cloud and burst-to-cloud, and data consistency across clusters any distance apart.

Resources

Db2 Big SQL demos

Explore several Db2 Big SQL demos to walk through business benefits and core features, integration with Data Sever Manager for creating federated connections to Db2 Warehouse on Cloud, as well as how to integrate with IBM Cognos® Analytics to create dashboards and reports.

Connect more data from more sources with a data lake

Data lakes are gaining prominence as businesses incorporate more unstructured data and look to generate insights from real-time ad hoc queries and analysis. Learn more about the new types of data and sources that can be leveraged by integrating data lakes into your existing data management.

eBook: Build a better data lake

Discover best practices to follow and the potential pitfalls to avoid when integrating a data lake in your existing data infrastructure. Learn how enterprise-grade security and governance can allow any business to leverage a growing diversity of data to drive innovation across the organization.


Read more »



Aug
17
New Quantum backup appliance brings Veeam to tape
Posted by Thang Le Toan on 17 August 2018 12:16 AM

Integrated disk backup appliances are now common, but Quantum and Veeam have taken the converged architecture to tape backups to eliminate the need for a dedicated external server.

Quantum and Veeam today launched what they call a converged tape appliance, which integrates Veeam data protection software with Quantum backup.

Until now, Veeam Backup and Replication users could only create tape backups by connecting a dedicated external server to host the Veeam software. The new Quantum backup appliance removed that layer of complexity by installing a blade server into its Scalar i3 tape library. The server is preconfigured to be Veeam-ready, with Windows Server 2016 -- Veeam's server OS of choice -- preinstalled.

By installing a server to a tape device, Quantum has created the industry's first ever tape appliance with built-in compute power.

"In some ways, this is a new category of product," said Eric Bassier, senior director of product management and marketing at Quantum, based in Colorado Springs, Colo. "In Veeam environments, every other tape vendor's tape requires a dedicated external server that runs the Veeam tape server software ... We took that server, we built it into the tape library so that we eliminate that physical server, and we make it that much simpler and faster to create tape for offline protection."

Customers can buy a device with one IBM SAS LTO-8 tape drive for $17,000 or a two-drive version for $23,000.

Tape storage has been around for a long time and "still remains one of the lowest-cost, long-term ways to store your data," said Ken Ringdahl, vice president of global alliance architecture at Veeam, based in Baar, Switzerland. But Bassier stressed the new Quantum backup appliance's true role in the modern backup and recovery system is it protects against ransomware.

Render of Quantum Scalar i3 tape appliance

Quantum

Quantum's Scalar converged tape appliance for Veeam

"It's offline. Data stored on tape is not connected to the network in any way. Because it's offline, it is the best and most effective protection against ransomware," Bassier said.

The ransomware threat has brought on a renewed interest in tape for backup.

Edwin Yuen, senior analyst at Enterprise Strategy Group in Milford, Mass., said ransomware has gotten more sophisticated over the past 12 to 18 months, and tape provides an offline backup method.

"Ransomware is not an acute event," Yuen said. "You're getting infected, and it's sitting there, waiting. Oftentimes, it's mapping out or finding other backups or other restores."

Storing data offline in a tape cartridge like the new Quantum backup option provides an air gap between live production systems and backed up data that is not possible to achieve with disk. That air gap can prevent ransomware from infecting live data.

If you really think about tape, it's one of those technologies that got dismissed, but never actually went away.
Edwin Yuensenior analyst, Enterprise Strategy Group

"If you really think about tape, it's one of those technologies that got dismissed, but never actually went away. It was consistently used; it just wasn't in vogue, so to speak. But there's certainly been a renewed interest in new uses for tape," Yuen said. "This integration by Quantum and Veeam really makes it a lot easier to bring tape into this configuration, so you can take advantage of that air gap."

According to Yuen, thanks to market maturity and the age of magnetic tape technology, there are now only a few major companies that manufacture tape libraries. This is why Yuen said he finds the partnership between Quantum and Veeam especially noteworthy, as it demonstrates a relatively young company showing interest in tape.

"The fact that these two companies came together shows interest across the board," Yuen said. "It's not a 20-year standard industry company, but one that's been an up-and-comer now getting into the tape market through this appliance."


Read more »



Aug
17
Network Management Software Become a Master (EzMaster 0.13.13)
Posted by Thang Le Toan on 17 August 2018 12:12 AM

Link: https://www.engeniustech.com/ezmaster-network-management-software.html#download

Save Time, Build Revenue and Improve Efficiencies

Complete Scalability

Start small and grow; control an office network or multiple networks in separate buildings. Expand and easily see your devices across town, states or the country.

Unlimited Flexibility

EnGenius hardware and ezMaster network management software combineto add flexibility and management simplicity when you need it.

Unmatched Affordability

Affordable, predictable costs and a lower TCO per deployment.No per AP licensing and annual subscription fees.

 

Rich Reporting & Analytics

Pinpoint & address potential problems before they affect users with invaluable reporting, analytics & real-time monitoring tools.

 

New ezMaster Users

Manage, Monitor & Troubleshoot Neutron and EnTurbo Hardware, download ezMaster today

  1. If you have No Virtual Machine currently running on your PC or Server
  2. If you are currently running on a virtualized platform of VMWare Player 7 or Oracle Virtual Box
  3. If you are currently running on a virtualized platform of VMWare ESXi vSphere
  4. If you are currently running on a virtualized platform of 2012R2 Hyper-V
  5. If you are currently running on a virtualized platform of Win10 64-bit Hyper-V

Download

Existing ezMaster Users

Make sure you have the newest features & update to the latest version of ezMaster

Update


Read more »



Aug
16
non-volatile storage (NVS)
Posted by Thang Le Toan on 16 August 2018 05:26 AM

Non-volatile storage (NVS) is a broad collection of technologies and devices that do not require a continuous power supply to retain data or program code persistently on a short- or long-term basis.

 

Three common examples of NVS devices that persistently store data are tape, a hard disk drive (HDD) and a solid-state drive (SSD). The term non-volatile storage also applies to the semiconductor chips that store the data or controller program code within devices such as SSDs, HDDs, tape drives and memory modules.

Many types of non-volatile memory chips are in use today. For instance, NAND flash memory chips commonly store data in SSDs in enterprise and personal computer systems, USB sticks, and memory cards in consumer devices such as mobile telephones and digital cameras. NOR flash memory chips commonly store controller code in storage drives and personal electronic devices.

Non-volatile storage technologies and devices vary widely in the manner and speed in which they transfer data to and retrieve data or program code from a chip or device. Other differentiating factors that have a significant impact on the type of non-volatile storage a system manufacturer or user chooses include cost, capacity, endurance and latency.

For example, an SSD equipped with NAND flash memory chips can program, or write, and read data faster and at lower latency through electrical mechanisms than a mechanically addressed HDD or tape drive that uses a head to write and read data to magnetic storage media. However, the per-bit price to store data in a flash-based SSD is generally higher than the per-bit cost of an HDD or tape drive, and flash SSDs can sustain a limited number of write cycles before they wear out.

Volatile vs. non-volatile storage devices

The key difference between volatile and non-volatile storage devices is whether or not they are able to retain data in the absence of a power supply. Volatile storage devices lose data when power is interrupted or turned off. By contrast, non-volatile devices are able to keep data regardless of the status of the power source.

Common types of volatile storage include static random access memory (SRAM) and dynamic random access memory (DRAM). Manufacturers may add battery power to a volatile memory device to enable it to persistently store data or controller code.

Enterprise and consumer computing systems often use a mix of volatile and non-volatile memory technologies, and each memory type has advantages and disadvantages. For instance, SRAM is faster than DRAM and well suited to high-speed caching. DRAM is less expensive to produce and requires less power than SRAM, and manufacturers often use it to store program code that a computer needs to operate.

Comparison of non-volatile memory types
 

By contrast, non-volatile NAND flash is slower than SRAM and DRAM, but it is cheaper to produce. Manufacturers commonly use NAND flash memory to store data persistently in business systems and consumer devices. Storage devices such as flash-based SSDs access data at a block level, whereas SRAM and DRAM support random data access at a byte level.

Like NAND, NOR flash is less expensive to produce than volatile SRAM and DRAM. NOR flash costs more than NAND flash, but it can read data faster than NAND, making it a common choice to boot consumer and embedded devices and to store controller code in SSDs, HDDs and tape drives. NOR flash is generally not used for long-term data storage due to its poor endurance.

Trends and future directions

Manufacturers are working on additional types of non-volatile storage to try to lower the per-bit cost to store data and program code, improve performance, increase endurance levels and reduce power consumption.

For instance, manufacturers developed 3D NAND flash technology in response to physical scaling limitations of two-dimensional, or planar, NAND flash. They are able to reach higher densities at a lower cost per bit by vertically stacking memory cells with 3D NAND technology than they can by using a single layer of memory cells with planar NAND.

NVM use cases
 

Emerging 3D XPoint technology, co-developed by Intel Corp. and Micron Technology Inc., offers higher throughput, lower latency, greater density and improved endurance over more commonly used NAND flash technology. Intel ships 3D XPoint technology under the brand name Optane in SSDs and in persistent memory modules intended for data center use. Persistent memory modules are also known as storage class memory.

3D XPoint non-volatile technology

Micron Technology Inc.

An image of a 3D XPoint technology die.
 

Using non-volatile memory express (NVMe) technology over a computer's PCI Express (PCIe) bus in conjunction with flash storage and newer options such as 3D XPoint can further accelerate performance, and reduce latency and power consumption. NVMe offers a more streamlined command set to process input/output (I/O) requests with PCIe-based SSDs than the Small Computer System Interface (SCSI) command set does with Serial Attached SCSI (SAS) storage drives and the analog telephone adapter (ATA) command set does with Serial ATE (SATA) drives.

Everspin Technologies DDR3 ST-MRAM storage.

Everspin Technologies Inc.

Everspin's EMD3D064M 64 Mb DDR3 ST-MRAM in a Ball Grid Array package.
 

Emerging non-volatile storage technologies currently in development or in limited use include ferroelectric RAM (FRAM or FeRAM), magnetoresistive RAM (MRAM), phase-change memory (PCM), resistive RAM (RRAM or ReRAM) and spin-transfer torque magnetoresistive RAM (STT-MRAM or STT-RAM).


Read more »



Aug
16
SSD write cycle
Posted by Thang Le Toan on 16 August 2018 05:24 AM

An SSD write cycle is the process of programming data to a NAND flash memory chip in a solid-state storage device.

A block of data stored on a flash memory chip must be electrically erased before new data can be written, or programmed, to the solid-state drive (SSD). The SSD write cycle is also known as the program/erase (P/E) cycle.

When an SSD is new, all of the blocks are erased and new, incoming data is directly written to the flash media. Once the SSD has filled all of the free blocks on the flash storage media, it must erase previously programmed blocks to make room for new data to be written. Blocks that contain valid, invalid or unnecessary data are copied to different blocks, freeing the old blocks to be erased. The SSD controller periodically erases the invalidated blocks and returns them into the free block pool.

The background process an SSD uses to clean out the unnecessary blocks and make room for new data is called garbage collection. The garbage collection process is generally invisible to the user, and the programming process is often identified simply as a write cycle, rather than a write/erase or P/E cycle.

Why write cycles are important

A NAND flash SSD is able to endure only a limited number of write cycles. The program/erase process causes a deterioration of the oxide layer that traps electrons in a NAND flash memory cell, and the SSD will eventually become unreliable, wear out and lose its ability to store data.

The number of write cycles, or endurance, varies based on the type of NAND flash memory cell. An SSD that stores a single data bit per cell, known as single-level cell (SLC) NAND flash, can typically support up to 100,000 write cycles. An SSD that stores two bits of data per cell, commonly referred to as multi-level cell (MLC) flash, generally sustains up to 10,000 write cycles with planar NAND and up to 35,000 write cycles with 3D NAND. The endurance of SSDs that store three bits of data per cell, called triple-level cell (TLC) flash, can be as low as 300 write cycles with planar NAND and as high as 3,000 write cycles with 3D NAND. The latest quadruple-level cell (QLC) NAND will likely support a maximum of 1,000 write cycles.

Comparison of NAND flash memory
 

As the number of bits per NAND flash memory cell increases, the cost per gigabyte (GB) of the SSD declines. However, the endurance and the reliability of the SSD are also lower.

NAND flash writes

Micron

 

Common write cycle problems

Challenges that SSD manufacturers have had to address to use NAND flash memory to store data reliably over an extended period of time include cell-to-cell interference as the dies get smaller, bit failures and errors, slow data erases and write amplification.

Manufacturers have enhanced the endurance and reliability of all types of SSDs through controller software-based mechanisms such as wear-leveling algorithms, external data buffering, improved error correction code (ECC) and error management, data compression, overprovisioning, better internal NAND management and block wear-out feedback. As a result, flash-based SSDs have not worn out as quickly as users once feared they would.

Vendors commonly offer SSD warranties that specify a maximum number of device drive writes per day (DWPD) or terabytes written (TBW). DWPD is the number of times the entire capacity of the SSD can be overwritten on a daily basis during the warranty period. TBW is the total amount of data that an SSD can write before it is likely to fail. Vendors of flash-based systems and SSDs often offer guarantees of five years or more on their enterprise drives.

Manufacturers sometimes specify the type of application workload for which an SSD is designed, such as write-intensive, read-intensive or mixed-use. Some vendors allow the customer to select the optimal level of endurance and capacity for a particular SSD. For instance, an enterprise user with a high-transaction database might opt for a greater DWPD number at the expense of capacity. Or a user operating a database that does infrequent writes might choose a lower DWPD and a higher capacity.


Read more »



Aug
16
all-flash array (AFA)
Posted by Thang Le Toan on 16 August 2018 05:09 AM

An all-flash array (AFA), also known as a solid-state storage disk system, is an external storage array that uses only flash media for persistent storage. Flash memory is used in place of the spinning hard disk drives (HDDs) that have long been associated with networked storage systems.

Vendors that sell all-flash arrays usually allow customers to mix flash and disk drives in the same chassis, a configuration known as a hybrid array. However, those products often represent the vendor's attempt to retrofit an existing disk array by replacing some of the media with flash.

All-flash array design: Retrofit or purpose-built

Other vendors sell purpose-built systems designed natively from the ground up to only support flash. These models also embed a broad range of software-defined storage features to manage data on the array.

A defining characteristic of an AFA is the inclusion of native software services that enable users to perform data management and data protection directly on the array hardware. This is different from server-side flash installed on a standard x86 server. Inserting flash storage into a server is much cheaper than buying an all-flash array, but it also requires the purchase and installation of third-party management software to supply the needed data services.

Leading all-flash vendors have written algorithms for array-based services for data management, including clones, compression and deduplication -- either an inline or post-process operation -- snapshots, replication, and thin provisioning.

As with its disk-based counterpart, an all-flash array provides shared storage in a storage area network (SAN) or network-attached storage (NAS) environment.

How an all-flash array differs from disk

Flash memory, which has no moving parts, is a type of nonvolatile memory that can be erased and reprogrammed in units of memory called blocks. It is a variation of erasable programmable read-only memory (EEPROM), which got its name because the memory blocks can be erased with a single action, or flash. A flash array can transfer data to and from solid-state drives (SSDs) much faster than electromechanical disk drives.

The advantage of an all-flash array, relative to disk-based storage, is full bandwidth performance and lower latency when an application makes a query to read the data. The flash memory in an AFA typically comes in the form of SSDs, which are similar in design to an integrated circuit.

Pure FlashBlade

Pure Storage

Image of a Pure Storage FlashBlade enterprise storage array
 

Flash is more expensive than spinning disk, but the development of multi-level cell (MLC) flash, triple-level cell (TLC) NAND flash and 3D NAND flash has lowered the cost. These technologies enable greater flash density without the cost involved in shrinking NAND cells.

MLC flash is slower and less durable than single-level cell (SLC) flash, but companies have developed software that improves its wear level to make MLC acceptable for enterprise applications. SLC flash remains the choice for applications with the highest I/O requirements, however. TLC flash reduces the price more than MLC, although it also comes with performance and durability tradeoffs that can be mitigated with software. Vendor products that support TLC SSDs include the Dell EMC SC Series and Kaminario K2 arrays.

Considerations for buying an all-flash array

Deciding to buy an AFA involves more than simple comparisons of vendor products. An all-flash array that delivers massive performance increases to a specific set of applications may not provide equivalent benefits to other workloads. For example, running virtualized applications in flash with inline data deduplication and compression tends to be more cost-effective than flash that supports streaming media in which unique files are uncompressible.

An all-SSD system will produce smaller variations than that of an HDD array in maximum, minimum and average latencies. This makes flash a good fit for most read-intensive applications.

The tradeoff comes in write amplification, which relates to how an SSD will rewrite data to erase an entire block. Write-intensive workloads require a special algorithm to collect all the writes on the same block of the SSD, thus ensuring the software always writes multiple changes to the same block.

Garbage collection can present a similar issue with SSDs. A flash cell can only withstand a limited number of writes, so wear leveling can be used to increase flash endurance. Most vendors design their all-flash systems to minimize the impact of garbage collection and wear leveling, although users with write-intensive workloads may wish to independently test a vendor's array to determine the best configuration.

Despite paying a higher upfront price for the system, users who buy an AFA may see the cost of storage decline over time. This is tied to an all-flash array's increased CPU utilization, which means an organization will need to buy fewer application servers.

The physical size of an AFA is smaller than that of a disk array, which lowers the rack count. Having fewer racks in a system also reduces the heat generated and the cooling power consumed in the data center.

All-flash array vendors, products and markets

Flash was first introduced as a handful of SSDs in otherwise all-HDD systems with the purpose to create a small flash tier to accelerate a few critical applications. Thus was born the hybrid flash array.

The next phase of evolution arrived with the advent of software that enabled an SSD to serve as a front-end cache for disk storage, extending the benefit of faster performance across all the applications running on the array.

The now-defunct vendor Fusion-io was an early pioneer of fast flash. Launched in 2005, Fusion-io sold Peripheral Component Interface Express (PCIe) cards packed with flash chips. Inserting the PCIe flash cards in server slots enabled a data center to boost the performance of traditional server hardware. Fusion-io was acquired by SanDisk in 2014, which itself was subsequently acquired by Western Digital Corp.

Also breaking ground early was Violin, whose systems -- designed with custom-built silicon -- gained customers quickly, fueling its rise in public markets in 2013. By 2017, Violin was surpassed by all-flash competitors whose arrays integrated sophisticated software data services. After filing for bankruptcy, the vendor was relaunched by private investors as Violin Systems in 2018, with a focus on selling all-flash storage to managed service providers.

comparison of all-flash storage arrays
Independent analyst Logan G. Harbaugh compares various all-flash arrays. This chart was created in August 2017.
 

All-flash array vendors, such as Pure Storage and XtremIO -- part of Dell EMC -- were among the earliest to incorporate inline compression and data deduplication, which most other vendors now include as a standard feature. Adding deduplication helped give AFAs the opportunity for price parity with storage based on cheaper rotating media.

A sampling of leading all-flash array products includes the following:

  • Dell EMC VMAX
  • Dell EMC Unity
  • Dell EMC XtremIO
  • Dell EMC Isilon NAS
  • Fujitsu Eternus AF
  • Hewlett Packard Enterprise (HPE) 3PAR StoreServ
  • HPE Nimble Storage AF series
  • Hitachi Vantara Virtual Storage Platform
  • Huawei OceanStor
  • IBM FlashSystem V9000
  • IBM Storwize 5000 and Storwize V7000F
  • Kaminario K2
  • NetApp All-Flash Fabric-Attached Array (NetApp AFF)
  • NetApp SolidFire family -- including NetApp HCI
  • Pure Storage FlashArray
  • Pure FlashBlade NAS/object storage array
  • Tegile Systems T4600 -- bought in 2017 by Western Digital
  • Tintri EC Series

Impact on hybrid arrays use cases

Falling flash prices, data growth and integrated data services have increased the appeal of all-flash arrays for many enterprises. This has led to industry speculation that all-flash storage can supplant hybrid arrays, although there remain good reasons to consider using a hybrid storage infrastructure.

HDDs offer predictable performance at a fairly low cost per gigabyte, although they use more power and are slower than flash, resulting in a high cost per IOPS. All-flash arrays also have a lower cost per IOPS, coupled with the advantages of speed and lower power consumption, but they carry a higher upfront acquisition price and per-gigabyte cost.

AFA vs. hybrid array
 

A hybrid flash array enables enterprises to strike a balance between relatively low cost and balanced performance. Since a hybrid array supports high-capacity disk drives, it offers greater total storage than an AFA.

All-flash NVMe and NVMe over Fabrics

All-flash arrays based on nonvolatile memory express (NVMe) flash technologies represent the next phase of maturation. The NVMe host controller interface speeds data transfer by enabling an application to communicate directly with back-end storage.

NVMe is meant to be a faster alternative to the Small Computer System Interface (SCSI) standard that transfers data between a host and a target device. Development of the NVMe standard is under the auspices of NVM Express Inc., a nonprofit organization comprising more than 100 member technology companies.

The NVMe standard is widely considered to be the eventual successor to the SAS and SATA protocols. NVMe form factors include add-in cards, U.2 2.5-inch and M.2 SSD devices.

Some of the NVMe-based products available include:

  • DataDirect Networks Flashscale
  • Datrium DVX hybrid system
  • HPE Persistent Memory
  • Kaminario K2.N
  • Micron Accelerated Solutions NVMe reference architecture
  • Micron SolidScale NVMe over Fabrics appliances
  • Pure Storage FlashArray//X
  • Tegile IntelliFlash

A handful of NVMe-flash startups are bringing products to market, as well, including:

  • Apeiron Data Systems combines NVMe drives with data services housed in field-programmable gate arrays instead of servers attached to storage arrays.
  • E8 Storage E8-D24 NVMe flash arrays replicate snapshots to attached compute servers to reduce management overhead on the array.
  • Excelero software-defined storage runs on any x86 server.
  • Mangstor MX6300 NVMe over Fabrics (NVMe-oF) storage is branded PCIe NVMe add-in cards on Dell PowerEdge servers.
  • Pavilion Data Systems-branded Pavilion Memory Array.
  • Vexata VX-100 is based on the software-defined Vexata Active Data Fabric.

Industry experts expect 2018 to usher in more end-to-end, rack-scale flash storage systems based on NVMe-oF. These systems integrate custom NVMe flash modules as a fabric in place of a bunch of NVMe SSDs.

The NVMe-oF transport mechanism enables a long-distance connection between host devices and NVMe storage devices. IBM, Kaminario and Pure Storage have publicly disclosed products to support NVMe-oF, although most storage vendors have pledged support.

All-flash storage arrays in hyper-converged infrastructure

Hyper-converged infrastructure (HCI) systems combine computing, networking, storage and virtualization resources as an integrated appliance. Most hyper-convergence products are designed to use disk as front-end storage, relying on a moderate flash cache layer to accelerate applications or to use as cold storage. For reasons related to performance, most HCI arrays were not traditionally built primarily for flash storage, although that started to change in 2017.

Now the leading HCI vendors sell all-flash versions. Among these vendors are Cisco, Dell EMC, HPE, Nutanix, Pivot3 and Scale Computing. NetApp launched an HCI product in October 2017 built around its SolidFire all-flash storage platform.


Read more »




Help Desk Software by Kayako