Comment fonctionne une UC?
Une UC fonctionne en exécutant les instructions qui ont été lues de la mémoire. Ces instructions indiquent à l’UC quelles opérations doivent être effectuées sur des données particulières stockées en mémoire ou en registres. Lorsqu’une instruction est tirée de la mémoire, elle est envoyée par l’unité de contrôle où elle est décodée et toutes les adresses/éléments de données nécessaires sont déterminés; ces informations sont ensuite transmises à l’ALU où les opérations sont réellement effectuées selon ce qui a été spécifié dans l’instruction. Une fois les opérations terminées, toutes les valeurs résultantes sont stockées en mémoire si nécessaire avant de chercher une autre instruction et de répéter ce processus jusqu’à ce que toutes les instructions du programme soient exécutées.
Qu’est-ce qu’une UC?
A Unité centrale de traitement (UC) est le cerveau d’un système informatique - c’est essentiellement ce qui dit à l’ordinateur ce qu’il doit faire et comment le faire. Une UC est composée de circuits qui se composent de trois composants principaux : une unité de contrôle, une unité arithmétique/logique (ALU) et un ensemble de registres. L’unité de contrôle extrait les instructions de la mémoire, les décode, détermine l’adresse des données stockées en mémoire (si nécessaire), puis transmet les données et les instructions à l’ALU pour le traitement. L’ALU effectue le calcul ou la logique requis par chaque instruction, stocke les résultats intermédiaires dans des registres si nécessaire, puis envoie le résultat à la mémoire où il est accessible par d’autres programmes ou écrit sur disque. Les registres sont utilisés pour conserver des données à court terme pendant le traitement par l’UC.
Que sont les curs?
Un cur est une instance d’unité d’exécution d’un processeur multicur. Chaque cur possède sa propre mémoire cache privée, ce qui lui permet d’effectuer des tâches de manière indépendante sans avoir à accéder à la mémoire principale aussi souvent; toutefois, plusieurs curs peuvent partager des ressources telles qu’un cache L2. Plusieurs curs permettent un meilleur parallélisme lors de l’exécution des instructions, ce qui signifie que plus d’instructions peuvent être exécutées simultanément et, par conséquent, plus de travail peut être fait en moins de temps qu’avec un processeur à un seul cur. Cela rend les processeurs multicurs idéaux pour les tâches informatiques intensives comme le montage vidéo ou le rendu 3D.
Que sont les fils d’exécution ?
Les fils d’exécution sont des séquences d’exécution qui peuvent s’exécuter simultanément dans un seul processus ou application sur un seul cur de processeur. Les fils permettent aux applications et aux programmes d’apparaître comme s’ils fonctionnent plus rapidement qu’ils ne le sont vraiment, car ils sont capables d’utiliser plusieurs curs à la fois- avec plusieurs fils qui fonctionnent à la fois sur différents curs, plus de travail peut être fait sans attendre sur un fil pour terminer l’exécution avant qu’un autre fil puisse recommencer l’exécution sur un autre cur. Cela rend les applications multifilaires beaucoup plus efficaces que leurs homologues unifilaires, car il n’est pas nécessaire de mettre en contexte la commutation entre threads lors de l’exécution de plusieurs processus à la fois sur des curs séparés, au lieu d’avoir un seul cur avec de nombreux fils en attente pour le traitement après les autres séquentielles comme vous le trouverez avec une seule application threadée.
Qu’est-ce que l’hyperthreading?
Hyper-Threading (HT) est la technologie exclusive d’Intel qui permet de multiples processeurs logiques dans chaque cur du processeur physique, permettant essentiellement deux flux simultanés d’instructions par cur physique (cela apparaît comme quatre processeurs « virtuels » au lieu de deux). L’introduction de HT dans les UC a permis aux UC Intel de meilleures performances multitâches en raison de leurs capacités de traitement accrues par cycle d’horloge cela leur permet de gérer de grandes charges de travail plus rapidement que les générations précédentes, qui étaient limitées par des vitesses d’horloge seulement (qui n’avaient que des augmentations de portée limitées). De plus, HT contribue également à augmenter le débit dans certains cas ainsi que les gains de l’IPC grâce à une meilleure efficacité de la planification lors du traitement des plus grands nombres de fils, comparativement sans ht éteinte dans ces mêmes scénarios.
Qu’est-ce que RISC vs architecture CISC?
RISC signifie « Ordinateur à instruction réduite » (Reduced Instruction Set Computer), qui fait habituellement référence à des architectures qui utilisent beaucoup moins de types d’instructions complexes que les architectures CISC (ordinateurs ensembles d’instructions complexes). Les architectures du CISC se composent généralement de jeux d’instructions très variés allant des opérations simples du calcul à des opérations complexes impliquant plusieurs étapes telles que la manipulation de chaîne, etc. tandis que le RISC tend vers des instructions plus simples mais plus rapides (qui constituent moins de zones par puce en raison d’une complexité diminuée), ils ont donc tendance à se diriger vers des caractéristiques de performance plus élevées étant donné des vitesses d’horloge similaires pour les deux architectures.
Qu’est-ce qu’un pipeline?
Les pipelines dans les UC font spécifiquement référence aux architectures qui divisent les divers stades impliqués dans l’exécution d’une instruction en pièces distinctes de sorte que les résultats des premiers stades deviennent disponibles plus rapidement plus tard, ce qui permet des optimisations plus poussées, comme l’envoi et l’exécution hors commande, ce qui permet à certaines pièces d’être plus rapides ou plus lentes selon leurs exigences individuelles plutôt que d’avoir chaque étape à attendre l’une sur l’autre, ce qui entraîne des gains importants en performance au cours de designs nonpipelined rendant possibles les processeurs multithreaded highspeed d’aujourd’hui.
Que sont les caches?
Les caches sont de petits blocs de RAM relativement rapides, situés à proximité soit directement à l’intérieur, soit à proximité de l’unité de traitement centrale, qui sert deux fonctions : premièrement, en désactivant la pression sur la mémoire principale, la lecture et l’écriture des mémoires principales fonctionnent à une latence plus faible, accélérant secondement.
Qu’est-ce qu’une ligne de cache?
Une ligne de cache est le plus petit bloc de données pouvant être transféré de la mémoire principale vers la mémoire cache de l’UC. Une ligne de cache se compose généralement de 64 octets sur un processeur avec des instructions de 4 octets et de 128 octets pour des instructions de 8 octets. Chaque fois que l’UC extrait des données de la mémoire, elle extrait toute la ligne plutôt qu’un simple morceau de données ou d’instructions; cela aide à réduire la latence en veillant à ce que des données liées soient également dans la cache de l’UC si elles sont nécessaires dans les opérations futures.
Qu’est-ce que le multitraitement?
Le multitraitement est un terme générique utilisé pour décrire plusieurs UC fonctionnant ensemble, soit en tant que partie d’un seul système informatique, soit distribuées sur plusieurs systèmes/appareils. Dans la plupart des ordinateurs,serveurs/réseaux modernes, le multitraitement peut prendre plusieurs formes, y compris le multitraitement symétrique (SMP), où deux PROCESSEURS ou plus partagent l’accès à la RAM et à d’autres ressources; Multitraitement asymétrique (AMP), où un ou plusieurs processeurs agissent en tant que maîtres et déléguer des tâches à des processeurs subordonnés; et le traitement massivement parallèle (MPP), où plusieurs processeurs collaborent pour effectuer rapidement des tâches informatiques complexes sur de grandes quantités de données.
Qu’est-ce que l’architecture superscalar?
L’architecture superscalaire se réfère aux UC haute performance qui sont capables d’exécuter plus d’une instruction en même temps, ce qui leur permet d’augmenter la performance en permettant le traitement simultané de plusieurs instructions plutôt que séquentielles comme elles l’auraient été pour les générations précédentes, réduisant ainsi la latence et augmentant le débit en utilisant au besoin des unités d’exécution en veille. De cette façon, les architectures superscalar rendent l’utilisation plus efficace des ressources de processeur disponibles, entraînant des vitesses de traitement plus rapides, même par rapport aux prédécesseurs plus cadencés.
Que sont les microprocesseurs?
Un microprocesseur est essentiellement une version réduite d’un processeur de taille standard conçu pour les appareils plus petits tels que les systèmes intégrés, les assistants numériques, les téléphones cellulaires, etc. où la consommation dénergie et la taille physique sont deux facteurs importants. Les microprocesseurs utilisent généralement des architectures plus simples que leurs homologues plus grandes afin de réduire les coûts et la complexité tout en offrant des performances comparables aux fins prévues.
Comment fonctionne la virtualisation?
La technologie de virtualisation permet de diviser les ressources matérielles d’un système informatique (telles que les curs de l’UC, la mémoire, etc.) en différentes machines « virtuelles », lesquelles exécutent chacune leurs propres système d’exploitation indépendamment des autres machines virtuelles, cela permet à plusieurs utilisateurs/applications au sein d’une organisation ou d’un ménage d’utiliser les ressources physiques d’un appareil sans s’affecter les unes les autres puisque chaque machine fonctionne complètement indépendamment de toutes les autres MV fonctionnant sur la même machine et son propre sous-ensemble dédié des ressources matérielles disponibles en conséquence. Cela rend la virtualisation très utile pour économiser de l’espace et de l’énergie tout en permettant une utilisation plus efficace du matériel existant en raison d’une réduction des duplications entre les machines et les appareils.