남교 칩은 PCI 버스, USB, LAN, ATA, SATA, 오디오 컨트롤러, 키보드 컨트롤러, 실시간 클럭 컨트롤러, 고급 전원 관리 등 입출력 버스 간 통신을 담당합니다. 북교는 CPU 와 메모리, 비디오 카드의 데이터 교환을 담당하고 남교는 CPU 와 PCI 버스, 외부 장치의 데이터 교환을 담당합니다.
남북교는 매우 유행하는 마더보드 칩셋 아키텍처로 역사가 유구하다. 남북교 구조의 마더보드에는 두 개의 넓은 칩이 있다. CPU 근처의 북교 칩은 주로 AGP 비디오 카드, 메모리 및 CPU 간 데이터 교환을 제어합니다. PCI 슬롯 근처에는 남교 칩이 있으며 주로 플로피 드라이브, 하드 드라이브, 키보드, 추가 카드의 데이터 교환을 담당하고 있습니다. 기존의 남북 브리지 아키텍처는 PCI 버스를 통해 연결됩니다. 일반적으로 사용되는 PCI 버스 작동 주파수는 33.3MHz 이고 전송 폭은 32bit 이므로 이론적 최대 데이터 전송 속도는 133MB/s/s 에 불과합니다. PCI 버스 * * * 로 인해 하위 시스템 및 기타 주변 장치 전송 속도가 지속적으로 높아질 때 마더보드 남북이 이에 따라 Intel i8 10/0 부터 칩셋 공급업체는 남북 브리지 연결 대역폭을 늘릴 수 있는 솔루션을 찾기 시작했습니다.
인텔: AHA 가속 센터 아키텍처인텔의 가속 센터 아키텍처 (AHA) 가 가장 먼저 유명한 통합 칩셋 i8 10 에 등장했습니다. I8 10 칩셋에서 인텔은 새로운 가속 센터 아키텍처를 사용하여 고전적인 남북 브리지 아키텍처를 변경했습니다. GMCH (그래픽 및 amp; 기존 남교 칩에 해당하는 메모리 컨트롤러 허브 (그래픽/메모리 컨트롤러 허브) 및 ICH(I/O 컨트롤러 허브) 및 새로 추가된 FWH (펌웨어 허브, 기존 아키텍처의 BIOS ROM 과 동일) * * * 3 칩.
이 새로운 가속 센터 아키텍처에서는 두 개의 칩이 PCI 버스를 통해 연결되지 않고 전용 버스 연결을 통해 PCI 버스보다 두 배의 대역폭을 제공할 수 있습니다. 이렇게 하면 PCI 버스를 포함한 각 장치가 CPU 와 직접 통신할 수 있으며, 인텔 810 칩셋의 메모리 컨트롤러와 그래픽 컨트롤러도 8-8 bit133mhz "2 × mode" 버스를 사용하여 다음과 같은 작업을 수행할 수 있습니다
이 체계는 사실 남북교 구조의 차이가 크지 않다. 주로 PCI 컨트롤 부분을 북교에서 분리 (북교가 GMCH 로 바뀜), ICH 는 PCI 등 이전에 남교가 담당했던 기능을 담당하고 있다. 또한 ICH 는 가속 센터 아키텍처를 사용하여 통합 AC'97 컨트롤러, IDE 컨트롤러, 듀얼 USB 포트 및 PCI 추가 카드에 그래픽과 메모리를 직접 연결합니다. 인텔 센터 아키텍처는 초당 266 MB 의 PCI 대역폭을 제공하므로 I/O 컨트롤러와 메모리 컨트롤러 간에 더 많은 정보를 전송할 수 있습니다. 중재 규칙 최적화와 함께 시스템은 동시에 더 많은 스레드를 실행할 수 있으므로 성능이 더욱 향상됩니다. GMCH 와 ICH 간의 전송 속도는 8 비트 133MHz DDR (266MHz 및 266MB/s 에 해당) 에 달하며 PCI 버스, USB 버스 및 IDE 채널과 시스템 메모리 및 프로세서 간의 대역폭을 크게 높였습니다.
물론 두 허브 사이에는 채널이 하나뿐이므로 한 번에 하나의 장치만 데이터를 전송할 수 있습니다 (PCI 버스의 장치 포함). PCI 버스의 장치에 대한 최대 데이터 전송 속도는 여전히 133MB/s/s 이므로 어느 정도 인텔의 현재 솔루션은 따라서 인텔은 3G IO (3 세대 입/출력) 기술인 새로운 솔루션을 찾고 있습니다. Arahahoe 및 직렬 PCI 기술이라고도 하는 3GIO 는 컴퓨터 하위 시스템과 I/O 주변 장치 간에 고대역폭과 고속 연결을 제공하는 인텔의 미래 기술입니다.
VIA: V-Link 브리징 기술인 VIA 도 비슷한 성능의 V-Link 기술을 도입했습니다. 이 기술은 Apollo Pro266 을 통해 처음으로 DDR 칩셋에 등장했습니다. 건물에서도 Pro266 은 VT8633 북교와 VT8233 남교로 구성된 전통적인 남북교 구조를 그대로 따르고 있습니다. 그러나 이전 아키텍처와 달리 VIA 는 남북교 통신에서 기존의 PCI 버스를 버리고 자체 V-링크 가속 센터 아키텍처를 사용했습니다. V-Link 아키텍처에서 PCI 버스는 남교의 다운스트림이 되어 IDE 채널, AC' 97 링크, USB, I/O 와의 동등한 연결이 됩니다.
V-Link 버스는 여전히 PCI 스타일의 32 비트 버스이지만 작동 주파수가 33MHz 에서 66MHz 로 높아져 남북교 간 대역폭이 266MHz 로 높아져 기존 PCI 버스 133MHz 대역폭에 비해 두 배로 늘어났습니다. 이전에는 PCI 버스의 대부분의 대역폭이 IDE 장치에 의해 사용되었으며, 남북교 간의 통신 속도는 보장할 수 없었고, 특히 IDE 전송 작업이 과중한 경우 시스템 성능에 어느 정도 영향을 미쳤습니다. V-Link 기술은 바쁜 PCI 버스에서 남북 다리 간의 통신을 분리함으로써 칩셋 내에서 빠르고 완벽한 정보 전송을 보장하고 시스템 성능을 향상시키는 데 도움이 됩니다. 향후 발전 계획에서 위성은 V-Link 의 주파수를 133MHz 로 더 높여 대역폭을 기존 기준으로 두 배로 533MHz 에 이를 계획입니다.
위에서 설명한 대역폭 향상 기술 외에도 위성은 최신 세대의 아키텍처 표준인 ——HDI (고대역폭 차등 상호 연결 기술) 를 설계했습니다. HDIT 구조는 광범위한 시스템 OEM 공급업체에게 가격 대비 성능이 뛰어나고 유연한 칩 기준 설계 플랫폼을 제공합니다. 오늘날의 메인스트림 데스크탑 및 모바일 PC 설계에서 HDI 는 DDR 266 메모리 인터페이스, AGP 4×, 533MB/S V-링크 버스 및 고도로 통합된 HDI 남교 칩과 같은 고급 기술 사양과 표준을 지원합니다. 최대한의 유연성이 필요한 워크스테이션 및 서버 설계에서는 HDIT 의 작동 모드를 설정하여 HDIT 노스브리지 칩에서 메모리 인터페이스 및 AGP 포트 구성에 가장 적합한 결과를 얻을 수 있습니다. 메모리 데이터 대역폭은 2 배, 2 배, 최대 대역폭은 4.2 GB/s 에 달합니다.
SiS:MuTIOL 아키텍처 실리콘 시스템의 멀티 스레드 I/o 링크 (MuTIOL) 아키텍처는 SiS635 칩셋에 처음 등장했습니다. 실리콘 시리즈는 이를 단일 칩 구조로 간주하지만 SiS635 내부에는 여전히' 남북' 이 있다. SiS630s 및 이전 단일 디스크에서는 PCI 버스를 남북으로 연결된 데이터 채널로 사용하고 대역폭 문제를 해결하기 위해 실리콘 시스템에 멀티 스레드 입출력 링크 아키텍처를 도입했습니다. 이 아키텍처의 다이어그램에서 볼 수 있듯이 멀티 스레드 I/o 링크는 PCI 버스 (위의 모든 디바이스가 멀티 스레드 I/O Link 의 한 장치임), 첫 번째 IDE 채널, 두 번째 IDE 채널, 첫 번째 USB 채널, 두 번째 USB 채널, aa 등 8 개 디바이스의 데이터 전송을 담당하고 있습니다 멀티 스레드 I/o 링크는 실제로 8 개의 개별 데이터 파이프로, 각 파이프는 33.3MHz 로 작동하고 데이터 전송 비트는 32 비트입니다. 이러한 파이프는 32 비트 PCI 버스 133MB/s 대역폭에 해당하며 8 개의 파이프를 더하면 1.2GB/s 가 됩니다. 이것이 대역폭이 65438 을 초과할 수 있는 이유입니다. 총 대역폭은 Intel 과 VIA 의 Link channel 에 비해 크게 향상되었지만 Link channel 의 파이프 라인당 266MB/s 만큼 좋지 않았습니다. 즉, 장치당 최대 전송 속도는 133MB/s 로 제한되어 있습니다
그러나 개별 채널 설계에도 단점이 있습니다. PCI 버스와 허브 링크 또는 V-링크 채널은 한 번에 하나의 장치만 데이터를 전송할 수 있는 이유는 회선이 하나뿐이고 전송 빈도가 고정되어 있기 때문입니다. 만약 별도의 경로를 채택한다면 이 문제는 잘 해결될 수 있다. DMA 의 메모리측에서는 한 번에 하나의 장치만 서비스할 수 있지만, 서비스가 끝난 후 버스 클리닝을 기다리지 않고 즉시 다음 장치를 서비스할 수 있습니다. 다른 장치 (하나 이상) 의 데이터 요청은 현재 장치의 작업을 방해하지 않고 메모리 제어측으로 보낼 수 있습니다 (8 개 장치에 대기열 레지스터가 작업을 정렬하는 것으로 예상됨). 데이터 전송이 끝나면 바로 다음 작업을 수행할 수 있습니다. 이러한 관점에서 볼 때 멀티 스레드 I/O 링크는 멀티 태스킹 작업에 도움이 되도록 설계되었습니다.
AMD:HyperTransport 버스는 남북교 칩에 연결하여 IDE 디스크 성능을 최대한 발휘할 수 있는 문제에 대해 다양한 익스프레스 칩셋에 적용할 수 있는 전송 인터페이스를 개발했습니다. 이것은 2006 년 2 월 HyperTransport, 5438+0 으로 이름이 바뀐 LDT (번개 데이터 전송) 입니다. HyperTransport 기술은 AMD 가 지난 4 월 최초로 발표한 것으로, 영위다와 알리를 포함한 많은 유명 업체들의 지지를 받았다. 이 기술은 PC, PDA 등 다양한 IC 칩의 데이터 전송 속도를 높이도록 설계되었습니다. 현재 대역폭은 12.8GB/s 에 도달했으며 기존 PCI 기술보다 96 배 이상 빠른 전송 속도를 제공합니다.
HyperTransport 는 두 개의 지점 간 단방향 데이터 전송 경로 (입력용 경로 1 개와 출력용 경로 1 개) 로 구성됩니다. 2 개의 단방향 전송 경로의 데이터 대역폭은 데이터 크기에 따라 유연하게 변경될 수 있으며 최소 2 비트로 4 비트, 8 비트, 16 비트, 32 비트로 조정할 수 있습니다. HyperTransport 는 400MHz 의 클럭 주파수를 실행하지만 DDR 과 동일한 이중 클럭 주파수 트리거 기술을 사용하여 400MHz 정격 주파수에서 800MB/s 의 데이터 전송 속도를 제공합니다. 그러나 HyperTransport 의 또 다른 큰 특징은 데이터 너비가 32 비트 (4 바이트) 가 아닌 경우에도 32 비트 (4 바이트) 대량 데이터 전송 효과를 얻을 수 있다는 것입니다. 예를 들어 16bit 의 데이터는 두 배치로 전송되고, 8bit 의 데이터를 사용할 경우 네 배치로 전송됩니다. 이 하도급 데이터 전송 방법은 HyperTransport 에 더 많은 유연성을 제공합니다 (최소 4 바이트, 최대 64 바이트). 데이터의 빠른 전송을 크게 향상시키고 시스템의 데이터 처리 성능을 향상시킵니다.
HyperTransport 는 칩 간에 고속으로 데이터를 전송할 수 있을 뿐만 아니라' 패킷 기반',' 2 개의 단방향 데이터 스트림 및 포인트 투 포인트 데이터 연결',' 유연한 데이터 대역폭' 등의 기능도 갖추고 있습니다. HyperTransport 버스를 사용하면 시스템 데이터 전송의 병목 현상을 개선하고 시스템 설계자에게 보다 효율적인 시스템 장치를 만들 수 있는 기반을 제공하여 전체 시스템의 운영 효율성을 진정으로 높일 수 있습니다.
칩셋에 HyperTransport 기술을 처음 적용한 것은 NVIDIA 최초의 시스템 칩셋 nForce 에 나타났습니다. NForce 칩셋은 북교 통합 그래픽 프로세서 (IGP) 와 남교 미디어 및 통신 프로세서 (MCP) 로 구성됩니다. NVIDIA nForce 칩셋 시스템의 경우 HyperTransport 버스는 MCP, IGP 및 CPU 를 연결하는 데 사용됩니다. 남북교 사이에 nForce 는 동기화된 8 비트 고속 데이터 버스를 통해 더 많은 핀을 추가하지 않고 IGP 와 MCP 간에 800MB/s 의 엄청난 데이터 대역폭을 확보했습니다. 실리콘 시스템의 멀티스레드 I/o 링크 아키텍처보다 수치적으로 낮지만, HyperTransport 는 두 개의 단방향 데이터 스트림의 기술적 특징을 가지고 있기 때문에 대역폭 이득도 상당합니다. 최소 2 ~ 3 년 내에 주변 장치의 요구를 충족시킬 수 있을 것으로 믿습니다.