사전 1-10 / 152건
- 양자터널링 [Quantum Tunneling] 경제용어사전
-
... 확률적으로 결정된다는 양자역학의 원리에서 비롯된다. 입자는 파동처럼 퍼져 있어, 장벽 너머까지 존재 확률이 미세하게 남아 있다. 그 결과 일정 확률로 장벽을 “뚫고” 반대편으로 나타날 수 있다. 이 원리는 터널 다이오드, 플래시메모리, 양자컴퓨터, 주사터널링현미경(STM) 등 다양한 기술의 기초가 된다. 고전물리학의 한계를 넘어서는 대표적 예로, 미시 세계의 불확정성과 확률성을 보여주는 현상이다. 결국 양자터널링은 '불가능을 가능하게 만드는' 양자역학의 핵심 ...
- 고대역폭 플래시메모리 [High Bandwidth Flash] 경제용어사전
-
D램 대신 낸드플래시 칩을 TSV(Through-Silicon Via, 실리콘 관통 전극) 기술로 수직 적층해, 대역폭과 저장 용량을 동시에 극대화한 차세대 메모리다. 플래시 기술이 NAND 계열임을 강조해 '고대역폭 낸드플래시'로도 불린다. AI 시대, 특히 챗GPT, 제미나이(Gemini)와 같은 멀티모달 거대언어모델(LLM)의 학습과 추론에는 이미지·영상 등 방대한 데이터를 빠르고 안정적으로 처리할 수 있는 메모리 기술이 필수다. 기존 낸드플래시는 ...
- LPDDR5X [Low‑Power Double Data Rate 5X] 경제용어사전
-
삼성과 마이크론이 주도한 차세대 모바일 메모리. LPDDR5X는 기존 LPDDR5보다 더 빠르고 효율적인 모바일용 저전력 고성능 D램 규격이다. 2021년 7월, 국제 반도체 표준화기구 JEDEC이 LPDDR5X를 포함한 새로운 메모리 표준(JESD209‑5B)을 발표했고, 같은 해 11월, 삼성전자가 14나노 기반 16Gb LPDDR5X 개발에 성공했다고 공식 발표했다. 이후 2024년 하반기, 삼성전자는 본격적인 양산에 들어갔고, 마이크론은 2025년 ...
- H20 [China-specific AI GPU by Nvidia] [Nvid] 경제용어사전
-
... 인공지능(AI) 그래픽처리장치(GPU)다. 고성능 AI 반도체인 H100의 성능을 일부 조정한 제품으로, GPU 코어 수를 41% 줄이고 연산 성능을 28% 낮춰 중국에 합법적으로 수출할 수 있도록 개발됐다. 96GB의 HBM3 메모리와 4.0TB/s의 메모리 대역폭을 갖추고 있으며, 2023년 하반기 출시 이후 높은 수요를 기록하며 분기별 50%의 판매 증가율을 보였다. 2024년 4월 미국 정부가 H20까지 제재 대상으로 포함하며 수출이 중단됐으나, 2025년 ...
- 아이언우드 [Ironwood] 경제용어사전
-
... 구글의 제미나이처럼 초대형 언어모델의 실시간 추론에 초점을 맞췄다. 아이언우드는 최대 9,216개 칩을 묶어 하나의 팟(Pod)으로 운용할 수 있고, 이 경우 42.5 엑사플롭스의 연산 성능을 자랑한다. 각 칩은 192GB 고대역폭 메모리(HBM)를 탑재하고 있으며, 대역폭은 7.2TB/s에 이른다. 추천 시스템과 대규모 임베딩 처리를 위한 전용 코어(SparseCore)도 함께 탑재됐다. 이전 세대인 트릴리움 대비 전력 소모는 절반 수준으로 줄었고, 연산량은 ...
- TPU [Tensor Processing Unit] 경제용어사전
-
... 아이언우드(Ironwood)를 공개하며 추론(inference)에 최적화된 최신 칩을 선보였다. 아이언우드는 이전 세대인 TPU v5p 대비 최대 10배 향상된 피크 연산 성능과, 더욱 향상된 에너지 효율을 제공한다. 또한, 고대역폭 메모리(HBM) 용량은 6배 증가하였으며, 최대 9,216개의 칩을 연결해 하나의 Superpod로 구성할 수 있으며, 이 경우 최대 42.5 엑사플롭스(ExaFLOPS)의 추론 성능을 제공할 수 있다. 이러한 기술적 진화는 구글이 AI ...
- B200 [NVIDIA B200] 경제용어사전
-
엔비디아(NVIDIA)의 블랙웰(Blackwell) 아키텍처 기반 고성능 GPU로, 대규모 언어 모델(LLM)과 생성형 AI의 추론 및 학습에 최적화된 병렬 연산 장치. 2080억 개의 트랜지스터와 최대 192GB의 HBM3e 메모리를 탑재하여 이전 세대 대비 연산 성능과 에너지 효율을 획기적으로 향상시켰다. B200은 2024년 3월 NVIDIA GTC에서 발표된 차세대 AI GPU로, 홉퍼(Hopper) 아키텍처 기반의 H100을 계승한 제품이다. 블랙웰...
- H200 [NVIDIA H200 Tensor Core GPU] 경제용어사전
-
엔비디아가 개발한 차세대 고성능 GPU로, 생성형 AI 및 대규모 언어 모델(LLM) 연산에 특화된 병렬 처리 장치. HBM3e 메모리를 최초로 탑재한 GPU로, 기존 H100 대비 추론 속도와 메모리 대역폭이 대폭 향상되었다. H200은 2024년 기준 엔비디아의 플래그십 GPU로, 초거대 AI 모델과 고성능 컴퓨팅(HPC) 환경에 최적화된 구조를 갖추고 있다. 업계 최초로 고속 메모리 규격인 HBM3e를 탑재하여 대역폭과 용량 모두에서 기존 H100을 ...
- 엔비디아 [NVIDIA] 경제용어사전
-
... 기록하며, 글로벌 반도체 업계 시가총액 상위권을 유지 중이다. 한국에서는 엔비디아 GPU가 클라우드 서비스, 초거대 AI 학습, 반도체 설계 시뮬레이션, 자율주행 및 로보틱스 연구 등에 핵심 인프라로 활용된다. 삼성전자·SK하이닉스 등 메모리 반도체 기업과의 공급망 협력, 네이버·카카오·KT·LG CNS 등 국내 빅테크의 AI 데이터센터 구축에도 엔비디아 플랫폼이 적용되고 있다. 정부가 추진 중인 '국가 AI 컴퓨팅 센터' 사업에서도 엔비디아 장비가 주요 후보군으로 거론되는 ...
- 2나노미터 공정 경제용어사전
-
... 같은 면적에 더 많은 트랜지스터를 집적할 수 있어 처리 속도가 빨라지고 전력 소모가 줄어든다. 2024년 12월 현재 삼성전자와 TSMC 등 글로벌 반도체 기업들이 2나노 공정 기술 개발에 총력을 기울이고 있다. 삼성전자는 2025년, TSMC는 2025년 양산을 목표로 하고 있어 치열한 경쟁이 예상된다. 한편, 2나노 공정은 주로 시스템 반도체 제조에 사용되며, 메모리 반도체에는 적용되지 않는다. 이는 높은 기술력과 비용이 요구되기 때문이다.