사전 1-10 / 89건
- H100 [NVIDIA Hopper GPU] 경제용어사전
-
H100은 엔비디아(NVIDIA)가 2022년에 출시한 차세대 인공지능(AI) 및 고성능 컴퓨팅(HPC)용 그래픽처리장치(GPU)로, '호퍼(Hopper)' 아키텍처 기반의 첫 제품이다. 트랜스포머 모델 처리와 대규모 언어모델 학습에 최적화되어 있으며, GPT-4와 같은 초거대 AI 모델의 학습과 추론에 주로 사용된다. H100은 최대 80GB의 HBM3 고대역폭 메모리를 탑재하고, NVLink 및 PCIe Gen5 인터페이스를 통해 초고속 데이터 ...
- H20 [China-specific AI GPU by Nvidia] [Nvid] 경제용어사전
-
H20은 엔비디아(Nvidia)가 미국의 대중국 수출 규제를 회피하기 위해 중국 시장 전용으로 설계한 인공지능(AI) 그래픽처리장치(GPU)다. 고성능 AI 반도체인 H100의 성능을 일부 조정한 제품으로, GPU 코어 수를 41% 줄이고 연산 성능을 28% 낮춰 중국에 합법적으로 수출할 수 있도록 개발됐다. 96GB의 HBM3 메모리와 4.0TB/s의 메모리 대역폭을 갖추고 있으며, 2023년 하반기 출시 이후 높은 수요를 기록하며 분기별 50%의 ...
- 국가 AI 컴퓨팅 센터 [National AI Computing Center] 경제용어사전
-
과학기술정보통신부가 주도하는 민·관 합작 고성능 컴퓨팅(HPC) 인프라로, AI 연구·개발, 산업 혁신, 스타트업 성장을 지원하는 국가 AI 허브. H100·H200·B200 GPU 기반 1엑사플롭스 연산 자원을 제공해 대규모 언어 모델(LLM) 훈련, 데이터 분석, 산학연 협력을 촉진한다. 국가 AI 컴퓨팅 센터는 과학기술정보통신부가 국내 AI 생태계 경쟁력 강화를 위해 민·관 합작 SPC로 운영하는 고성능 컴퓨팅(HPC) 인프라다. 대학, 연구소, ...
- B200 [NVIDIA B200] 경제용어사전
-
... 최대 192GB의 HBM3e 메모리를 탑재하여 이전 세대 대비 연산 성능과 에너지 효율을 획기적으로 향상시켰다. B200은 2024년 3월 NVIDIA GTC에서 발표된 차세대 AI GPU로, 홉퍼(Hopper) 아키텍처 기반의 H100을 계승한 제품이다. 블랙웰(Blackwell) 아키텍처(GB100)를 기반으로 하며, 두 개의 GPU 다이를 10TB/s의 NVLink로 연결한 듀얼 다이 구조를 통해 단일 GPU처럼 작동한다. FP4 정밀도 기준으로 최대 ...
- H200 [NVIDIA H200 Tensor Core GPU] 경제용어사전
-
엔비디아가 개발한 차세대 고성능 GPU로, 생성형 AI 및 대규모 언어 모델(LLM) 연산에 특화된 병렬 처리 장치. HBM3e 메모리를 최초로 탑재한 GPU로, 기존 H100 대비 추론 속도와 메모리 대역폭이 대폭 향상되었다. H200은 2024년 기준 엔비디아의 플래그십 GPU로, 초거대 AI 모델과 고성능 컴퓨팅(HPC) 환경에 최적화된 구조를 갖추고 있다. 업계 최초로 고속 메모리 규격인 HBM3e를 탑재하여 대역폭과 용량 모두에서 기존 H100을 ...
- 딥시크 R1 [DeepSeek-R1] 경제용어사전
-
... 모델 대비 빠르고 정확한 답변 제공에 초점을 맞추고 있다. 딥시크는 R1 개발에 약 557만 6천 달러(약 80억 원)를 투입했으며, 이는 메타(Meta)가 AI 모델 개발에 투자한 비용의 약 10% 수준이다. 또한, 엔비디아의 H800 GPU 약 2,048개를 활용하여 개발되었으며, 이는 비교적 저렴한 비용으로도 고성능 AI 모델을 구현할 수 있음을 보여준 사례로 평가된다. 출시 직후 R1 기반 챗봇 애플리케이션은 미국 애플 앱스토어 다운로드 순위 1위를 ...
- 딥시크 [DeepSeek] 경제용어사전
-
... 모델을 개발하는 전략을 채택하고 있다. V3 모델의 개발 비용은 약 557만 달러(한화 약 82억 원)로, 메타의 Llama 3 모델 개발비(약 6억 4,000만 달러)의 1% 수준에 불과하다. 또한, 엔비디아의 최신 AI 칩인 H100 대신 H800을 사용하여 컴퓨팅 자원을 최적화함으로써 비용 효율성을 극대화했다. 그러나 딥시크의 V3 모델은 정치적으로 민감한 이슈에 대한 답변을 기피하는 경향이 있으며, 환각(hallucination) 문제 등의 한계를 지적받고 ...
- 딥시크 V3 [DeepSeek V3] 경제용어사전
-
... 훈련에 사용된 GPU는 라마의 10분의 1에 불과했다. 약 557만 달러의 비용으로 개발되어, 메타의 라마 모델 개발 비용의 약 10분의 1 수준에 그쳤다. 딥시크 V3는 미국의 고성능 반도체 수출 제한에도 불구하고 엔비디아의 H800 GPU를 사용하여 개발에 성공했다. 이는 중국 기업의 기술력과 자원 활용 능력을 보여주는 사례로 평가받고 있다. 한편, 이 모델은 중국의 민감한 정치적 이슈에 대해서는 응답하지 않는 제한점이 있다. 예를 들어, 천안문 광장에 대한 ...
- 에너지 캐시백 경제용어사전
-
에너지 캐시백은 정부에서 추진하는 주택용 전기 절약 정책이다. 에너지 사용을 줄이고 낭비를 막아 전기요금을 줄이고 온실가스를 줄여 탄소 중립(넷제로 Net-Zero)을 실천하자는 취지로 도입돼 2022년 7월부터 전국적으로 시행됐다. 직전 2개년과 비교해 전기 사용량을 3% 이상 줄이면 절감률에 따라 1㎾h당 30원인 기본 캐시백에 30~70원의 '차등 캐시백'을 적용해 최대 100원까지 전기요금을 할인해 준다.
- HBM3E 12 H 경제용어사전
-
삼성전자가 업계 최초로 개발한 36GB(기가바이트) 용량의 5세대 HBM(High Bandwidth Memory), 즉 HBM3E 12H(12단 적층) D램을 지칭한다. 2024년 2월 27일 개발 성공을 발표했다. 이 기술은 24Gb(기가비트) D램 칩을 TSV(Through-Silicon Via, 실리콘 관통 전극) 기술을 통해 12단까지 적층하여, 업계에서 가장 큰 용량인 36GB HBM3E를 실현하였다. HBM3E 12H는 초당 최대 1,280GB의 ...