Tidak ada jalan lain dalam meningkatkan performa processor lebih jauh, para "chip makers" merasa hanya perlu menambah dan menambah jumlah core dalam sebuah chip di masa depan. Para insinyur Sandia National Laboratories, di New Mexico, telah membuat simulasi untuk komputer masa depan, berisi 8-core, 16-core, dan 32-core microprocessor. hasilnya sangat mengecewakan. Karena keterbatasan bandwith memory dan relevansi skema memory-management dengan supercomputer kurang baik, grafik performa dari supercomputer ini cenderung mendatar atau bahkan menurun secara signifikan dengan banyak core. Performanya sangat buruk, khususnya pada informatic applications—data-intensive program yang sangat krusial bagi fungsi keamanan nasional.
High-performance komputer secara historis digunakan terpusat pada memecahkan perhitungan diferensial, gambaran sistem fisik, seperti atmosfir bumi atau pemicu bomb hidrogen. Sistem seperti ini membuat sistem terbagi menjadi grid-grid, sehingga sistem fisik dapat, sampai batas tertentu, memetakan kepada lokasi fisik processor atau core di dalam processor, jadi memperkecil delay dalam memindahkan data.
Masalah ilmu pengetahuan dan engineering (selain masalah keamanan nasional) adalah hal yang berbeda. Hal ini berada pada informasi kategori umum dan termasuk kalkulasi apa yang terjadi pada jaringan transportasi ketika terjadi bencana alam dan mencari-cari pola yang memprediksi serangan teroris atau kegagalan pada pengembangan nuklir. Operasi ini sering membutuhkan informasi data-base.
Untuk informasi, semakin banyak jumlah core tidak berarti membuat performa lebih baik, berdasarkan simulasi yang dilakukan Sandia National Laboratories. “setelah 8 core, ada tidak peningkatan performa, ” kata Yakobus Peery, Direktur komputer, informasi, dan matematika di Sandia. “pada jumlah 16 core, terlihat seperti 2 core”. Setahun terakhir, tim Sandia telah membahas hasil secara luas dengan para "chip makers", perancang superkomputer, dan para pengguna komputer high-performance. Kalau arsitek komputer menemukan solusi, Peery dan tim lainnya mengharapkan programmer supercomputer akan menghentikan penambahan jumlah core atau menempatkannya dibawah permasalahan utama.
Berada dalam masalah yang disebut "memory wall"--pertumbuhan antara seberapa cepat cpu dapat mengoperasikan data dan seberapa cepat cpu memperoleh data yang diperlukan. Meskipun penambahan core pada tiap processor meningkat, koneksi dari chip ke chip yang lainnya tidak. Jadi, membiarkan core tetap menampung data merupakan masalah. Pada aplikasi informasi, masalah menjadi lebih buruk, Richard C. Murphy, anggota senior staff teknik di Sandia menerangkan, karena tidak ada hubungan fisik antara processor mana yang akan bekerja dan dimana satuan data berikutnya yang dibutuhkan ditempatkan. Daripada berada dalam cache dari core "tetangga", data mungkin berada dalam chip DRAM di rak sejauh 20 meter dan harus pergi dari chip tersebut, menerobos satu atau banyak router dan serat optik, dan mencari jalan ke processor.
Dalam usaha menempatkannya kembali ke jalur, tahun ini U.S. Department of Energy membentuk sebuah institut untuk Advance Architectures and Algorithms. Bertempat di Sandia dan Oak Ridge National Laboratory, di Tennessee, fungsi dari institut ini adalah untuk menganalisa arsitektur komputer high-performance yang bagaimana yang akan dibutuhkan dalam 10 tahun kedepan dari sekarang dan membantu industri lainnya untuk mengarah ke arah yang sama.
Peery mengatakan, “kunci untuk memecahkan masalah bottle-neck adalah memperketat, dan mungkin lebih smart, integrasi dari memory dan processors”. Untuk bagiannya, Sandia menyelidiki "impact" dari memperbesar bandwith.
Chip eksperimen Intel memiliki 80 core..
By: Samuel K. Moore
posted by. Muhamad Akbar
Tidak ada komentar:
Posting Komentar