비디오: Distributed TensorFlow (TensorFlow Dev Summit 2017) 2024
통계 분석은 블록에서 새로운 아이가되는 것과는 거리가 멀며, 새로운 통찰력을 얻기 위해 많은 양의 데이터를 처리해야한다는 것은 확실히 오래된 뉴스입니다. 그러나 이러한 시스템에서 전통적으로 처리되는 데이터의 양은 오늘날 볼 수있는 테라 바이트 또는 페타 바이트 범위가 아니라 10-100 (또는 수백) 기가 바이트 범위입니다.
그리고 종종 분석되는 데이터를 보유하기 위해 가능한 많은 메모리를 가진 비싼 대칭 다중 처리 (SMP) 기계가 필요했습니다. 왜냐하면 분석 접근법에서 사용되는 많은 알고리즘이 상당히 "계산 집약적"이었고 메모리에서 실행되도록 설계 되었기 때문입니다. 여러 번 자주 데이터가 통과하기 때문에 필요합니다.