2 단계, 엔터프라이즈 고객의 요구는 구조화된 데이터를 더 잘 처리하고 기존 IT 아키텍처를 분산 아키텍처로 마이그레이션하는 방법에 초점을 맞추고 있습니다. 주요 데이터 플랫폼 공급업체들은 Hadoop 에서 SQL 분야의 개발과 경쟁을 시작하여 SQL 표준의 호환성을 지속적으로 향상시키기 시작했습니다. 이 과정에서 Spark 가 탄생하여 MapReduce 아키텍처를 점차 대체했습니다. Mapreduce 아키텍처는 너무 육중하여 TB 급 컴퓨팅 성능에 결함이 있습니다. Hadoop 기술은 구조화된 데이터 처리 및 분석의 보다 심층적인 응용 분야에 진입하기 시작했습니다. Hadoop 기술에 SQL 과 Hadoop 분산 트랜잭션 문제를 해결하는 스타 링 기술이 발달하면서 점점 더 많은 고객이 Hadoop 에 차세대 데이터 웨어하우스를 구축하고 Hadoop 기술을 점점 더 많은 비즈니스 생산 시나리오에 적용하고 있습니다. 기술 문턱이 낮아짐에 따라 점점 더 많은 고객이 강력한 분산 컴퓨팅 기능을 활용하여 방대한 양의 데이터를 쉽게 분석하고 처리할 수 있습니다. 이 단계의 후반기에 기업 고객이 실시간 데이터 분석 및 판단에 대한 수요가 커짐에 따라 스트리밍 기술이 활발하게 발전했습니다.
3 단계에서 일부 기업은 관계형 데이터베이스 기반 데이터 처리 시스템에서 대형 데이터 기술 기반 데이터 처리 시스템으로의 전환을 완료했습니다. 이 단계의 초기에 많은 기업 고객은 SQL 을 통한 통계 기반 데이터 분석 및 마이닝으로 인해 기존의 기계 학습 알고리즘이 분산되기 시작했으며, 주로 구조화된 데이터의 학습 및 발굴에 초점을 맞추게 되었습니다. 심도 있는 학습 기술과 분산 기술이 충돌함에 따라 새로운 기술이 등장했습니다.