過去幾年在資料價值快速攀升下,以開源方式釋出的 Apache Hadoop 大數據平台,成為企業打造大數據平台的首選 ,運用其支援多種非結構化資料的特性,整合來自不同設備的資料源,進而挖掘潛藏其中的資料價值。Apache Hadoop 大數據平台是由任務不同的多台伺服器組成,市面上尚且沒有針對此機制設計的整合性解決方案,因此早已成為駭客鎖定的攻擊目標。如DemonBot惡意程式即是鎖定 Apache Hadoop 環境中的伺服器作為攻擊目標,藉此感染 Hadoop 環境中各類伺服器,作為發動大規模 DDoS 攻擊的殭屍電腦。
卡巴斯基認為 Apache Hadoop 環境面臨資安挑戰可分成兩部分,首先市面上沒有一套產品同時能滿足授權、認證、稽核,以及加密等不同應用伺服器之用。其次,Apache Hadoop 大數據環境中,是由 Apache Hadoop、HDFS Namenode 、HDFS Datanode、YARN Resource Manager、YARN Node Manager、Apache Accumulo、Apache Flume 、Apache HBase、Apache Kafka、Apache ZooKeeper 等應用伺服器組合而成。不同應用伺服器使用的通訊協定不同,加上多數資安軟體佔用資源極大,企業得安裝多套資安軟體之外,也會影響到應用服務效能,因此在後續管理、資安訊息整合上的難度極高。所幸,現今只需要一套 Kaspersky Scan Engine 即可解決。
以 Kaspersky Anti -Virus SDK 形式推出 Kaspersky Scan Engine,具備支援 HTTP、 ICAP 等通訊協定,佔用系統資源極低,加上支援 Windows、Linux 等環境,所以能快速與不同應用伺服器整合,自然非常適合對硬體資源非常計較的 Apache Hadoop 大數據環境使用。特別是大數據平台往往要收集不同格式的非結構化資料,無形中增加資安防護的困難度。而 Kaspersky Scan Engine 具備辨識多格式的能力,如 Office 文件、媒體文件、可執行檔等,且會主動針對檔案進行深度檢測,確認是否含有木馬、網路釣魚、蠕蟲、rootkit、間諜軟體、廣告軟體等惡意程式,以達到保護企業安全的目的。
在獲取龐大經濟利益前提下,駭客組織正開始針對 Apache Hadoop 環境設計各種惡意程式,全力運用零時差漏洞滲透企業,鎖定高價值資料進行加密,進而勒索龐大贖金。而能與卡巴斯基的全球資安訊息平台串連的 Kaspersky Scan Engine,不光擁有強大的偵測能力,還可結合在第一時間取得的最新情資,從各種資料中挖掘出新型態的惡意程式或病毒,將潛在的零時差攻擊威脅降到最低。
資料被譽為是 21 世紀的石油,其價值自然無須贅述。企業在運用 Apache Hadoop 挖掘資料價值之外,應該同步導入 Kaspersky Scan Engine,保護得來不意的數位資產。

 


更多 iThome相關內容