• 정렬
    • 기간
    • 범위
    • 옵션유지
    • 단어검색
      여러 단어 입력시 쉼표(,)로 구분해주세요.

    전체 뉴스

    사전

    B200 [NVIDIA B200] 경제용어사전

    엔비디아(NVIDIA)의 블랙웰(Blackwell) 아키텍처 기반 고성능 GPU로, 대규모 언어 모델(LLM)과 생성형 AI의 추론 및 학습에 최적화된 병렬 연산 장치. 2080억 개의 트랜지스터와 최대 192GB의 HBM3e 메모리를 탑재하여 이전 세대 대비 연산 성능과 에너지 효율을 획기적으로 향상시켰다. B200은 2024년 3월 NVIDIA GTC에서 발표된 차세대 AI GPU로, 홉퍼(Hopper) 아키텍처 기반의 H100을 계승한 제품이다. 블랙웰...

    H200 [NVIDIA H200 Tensor Core GPU] 경제용어사전

    엔비디아가 개발한 차세대 고성능 GPU로, 생성형 AI 및 대규모 언어 모델(LLM) 연산에 특화된 병렬 처리 장치. HBM3e 메모리를 최초로 탑재한 GPU로, 기존 H100 대비 추론 속도와 메모리 대역폭이 대폭 향상되었다. H200은 2024년 기준 엔비디아의 플래그십 GPU로, 초거대 AI 모델과 고성능 컴퓨팅(HPC) 환경에 최적화된 구조를 갖추고 있다. 업계 최초로 고속 메모리 규격인 HBM3e를 탑재하여 대역폭과 용량 모두에서 기존 H100을 ...

    HBM4 [High Bandwidth Memory version 4] 경제용어사전

    ... 전송률과 성능을 제공하는 차세대 메모리 기술이다. HBM4는 JEDEC에서 2024년 7월 최종 확정한 HBM의 6세대 표준 메모리로, 핀당 최대 6.4Gbps의 데이터 전송 속도를 제공하며 인터페이스 폭이 이전 세대인 HBM3E 대비 두 배로 늘어나 전체 데이터 전송 대역폭이 크게 향상된 것이 특징이다. HBM4는 12층에서 최대 16층의 D램 칩을 적층할 수 있으며, 층당 24Gb 및 32Gb의 용량을 지원해 최대 64GB 이상의 메모리 용량을 제공할 ...