Langages de programmation
Le langage, dans le sens courant, est un ensemble de réactions qui permettent aux individus de communiquer.
Si nous désirons communiquer avec un ordinateur pour lui donner les instructions nécessaires à l'accomplissement de certaines tàches, nous allons utiliser un langage de programmation.
Remarque : le langage de programmation est un moyen de communication de l'individu vers l'ordinateur. Les règles de communications d'un ordinateur avec un autre ordinateur sont les protocoles.
Evolution des langages
Nous pouvons partir d'un type de représentation le plus proche de la machine, pour aller vers le langage le plus proche des réactions humaines.
Les langages de premières générations sont des langages qui désignent de manière précise les emplacements mémoire et les instructions basiques à effectuer.
Nous retrouvons ici le langage machine, au départ sous la forme de bits 1 ou 0.
Par facilité, le code hexadécimal a été utilisé par la suite dans le langage machine.
Le langage assembleur est un langage de deuxième niveau.
Les langages de haut niveau (HLL : high-level languages) permettent une plus grande portabilité, et une certaine distance vis à vis des compétences techniques particulières du cœur de l'ordinateur.
Les langages 4GL (fourth-Generation Languages) permettent cette distance vis à vis des compétences techniques, et les langages 5GL offrent une programmation déclarative et logique (les efforts sont dirigés vers le problème, et non plus vers la méthode de résolution).
Traductions
Les langages de haut niveau permettent une approche plus humaine, mais ils ne sont pas compris par l'ordinateur.
Nous devons donc traduire les instructions de notre langage de haut niveau vers un langage que l'ordinateur comprend.
Deux types de traductions sont possibles : l'interprétation et la compilation.
Interprétation
Le code n'est pas traité préalablement. Un programme extérieur est nécessaire (interpréteur), ce programme traduit au fur et à mesure les instructions.
L'avantage de l'interprétation est que le code est plus indépendant de la machine sur laquelle il sera exécuté. C'est l'interpréteur qui est spécifique à l'environnement de travail, et non pas le code de départ.
Compilation
Imaginons le cas d'une boucle : à chaque passage, les instructions situées dans le corps de la boucle devraient être interprétées. Cela n'est pas nécessaire (bien que les interpréteurs actuels sont optimisés, et que de nombreuses solutions alternatives existent, comme un mélange d'interprétation et de compilation).
La compilation permet donc de réaliser une seule fois le travail de traduction. Un fichier unique est réalisé (code que le processeur est capable de comprendre dans le cas d'une machine concrète, ou de plus haut niveau dans le cas d'une machine abstraite).
L'avantage de la compilation est que le code produit est généralement optimisé en fonction de l'architecture et du système d'exploitation sur lesquels le code doit être ensuite exécuté.
Certains langages gardent quand même une certaine indépendance, le code compilé de manière plus ou moins générique étant ensuite exécuté par une machine abstraite (ou machine virtuelle1) qui assure la traduction de ce code vers un code plus spécifique. Exemples de machines abstraites : p-machine (langage Pascal), machine virtuelle Java, framework .NET, etc.
Phases de la compilation/interprétation
Les deux premiers conçepts suivants s'appliqueront tant à la compilation qu'à l'interprétation.
Nous retrouvons trois grandes phases dans la compilation :
- « Analyse lexicale » (en anglais, “lexical analysis”).
- « Analyse syntaxique » (en anglais, “syntactic analysis”).
- Génération du code.
Le code écrit dans un langage de haut niveau est soumis à ces différents processus (qui peuvent chacun retourner des erreurs) pour générer un code compréhensible par la machine auquel il est destiné4.
Analyse lexicale
Le code source est analysé caractère par caractère. Ces derniers sont groupés en « jetons » (en anglais, “tokens”), comme une phrase pourrait être découpée en mots.
Chaque caractère doit être identifié comme symbole terminal ou appartenant à un ensemble symbole terminal, ou non.
C'est dans cette phase que sont retirés les espaces redondants et les commentaires.
Chaque jeton est composé
- d'un type qui indique quel type de symbole terminal le jeton représente
- d'une valeur
Analyse syntaxique
Dans cette phase, le code est confronté aux règles syntaxiques du langage utilisé (vérification des délimiteurs d'instruction, une parenthèse ouverte doit être fermée, etc.).
Le résultat se présente sous une forme arborescente, et nous pouvons rencontrer deux grands types de « parcours analytiques » (en anglais, “parsing”) :
- « parcours analytique ascendant » (en anglais, “bottom-up parcing”) : des feuilles à la racine, par comparaison avec les voisins.
- « parcours analytique descendant » (en anglais, “topdown parcing”) : de la racine vers les feuilles (méthode plus rapide).
Dans les deux cas, l'analyseur syntaxique (parcer) travaille par tàtonnements et retours (backtracking).
Fast parcing
Une autre méthode analytique est l'« analyse syntaxique rapide » (en anglais, “fast parcing”) qui permet d'éviter les lenteurs du “backtracking” (en français, « retour en arrière »), gràce à l'utilisation de mots réservés.
L'écriture du code est soumise à plus plus de rigueur, car il faut tenir compte des contraintes du langage, mais le gain de temps est considérable.
Génération du code
La troisième étape (en compilation seulement) est la génération d'une suite d'instructions en code machine, correspondant au programme.
C'est à ce moment que l'espace mémoire nécessaire est mesuré.
Structure d'un compilateur
La structure d'un compilateur comporte en réalité un nombre plus élevé de composantsref 2 :
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
En pratique, cependant, certaines phases sont implémentées au sein d'un même module. Nous retrouvons alors une découpe en trois parties suivantes :
- « Partie avant » (en anglais, “front-ends compiler”)
- Analyse lexicale.
- Crible.
- Analyse syntaxique.
- Analyse sémantique.
- « Partie centrale » (en anglais, “middle-ends compiler”)
- « Partie arrière » (en anglais, “back-ends compiler”)
- Génération du code dépendant de la machine.
- Optimisation du code.
L'avantage de ce type de découpe du compilateur est que nous pouvons alors construire rapidement un compilateur pour un nouveau langage car nous devons seulement réaliser la partie avant.
Table des symboles
L'exemple de compilateur LSD010 qui est proposé sur ce site ne remplit la table des symboles que lorsque l'AST [“Abstract Syntaxic Tree”18] est totalement construit.Version en cache
20/11/2024 19:38:44 Cette version de la page est en cache (à la date du 20/11/2024 19:38:44) afin d'accélérer le traitement. Vous pouvez activer le mode utilisateur dans le menu en haut pour afficher la dernère version de la page.Document créé le 12/02/2004, dernière modification le 31/10/2018
Source du document imprimé : https://www.gaudry.be/langages-programmation.html
L'infobrol est un site personnel dont le contenu n'engage que moi. Le texte est mis à disposition sous licence CreativeCommons(BY-NC-SA). Plus d'info sur les conditions d'utilisation et sur l'auteur.
- ↑ Machine abstraite : Le terme le plus utilisé est "machine virtuelle", mais il est plus correct de parler de "machine abstraite", par opposition à la "machine concrète".
- ↑ Analyse lexicale : correspond à “lexical analysis” en anglais
- ↑ Analyse syntaxique : correspond à “syntactic analysis” en anglais
- ↑ Machine : Le terme machine est utilisé ici tant pour désigner une "machine concrète" qu'une "machine abstraite"".
- ↑ jetons : correspond à “tokens” en anglais
- ↑ parcours analytiques : correspond à “parsing” en anglais
- ↑ parcours analytique ascendant : correspond à “bottom-up parcing” en anglais
- ↑ parcours analytique descendant : correspond à “topdown parcing” en anglais
- ↑ analyse syntaxique rapide : correspond à “fast parcing” en anglais
- ↑ backtracking : correspond à « retour en arrière » en français
- ↑ Partie avant : correspond à “front-ends compiler” en anglais
- ↑ Partie centrale : correspond à “middle-ends compiler” en anglais
- ↑ Partie arrière : correspond à “back-ends compiler” en anglais
- ↑ LSD010 : Langage Simple et Didactique Il existe une un certain nombre d'interprétations de l'acronyme LSD (Langage Symbolique Didactique, Langage Sans Difficulté, Langage Simple et Didactique). LSD010 est la version 2010 de la suite LSD80, LSD_02, LSD03, LSD04, LSD05, LSD06, LSD07, LSD08, et LSD09.
Références
- Programming Languages : ECIS,
Compilers and Programming Languages Translators
(2005) - Compilateurs : A. Aho, M. Lam, R. Sethi, J. Ulman,
Principes; techniques et outils
Ces références et liens indiquent des documents consultés lors de la rédaction de cette page, ou qui peuvent apporter un complément d'information, mais les auteurs de ces sources ne peuvent être tenus responsables du contenu de cette page.
L'auteur de ce site est seul responsable de la manière dont sont présentés ici les différents concepts, et des libertés qui sont prises avec les ouvrages de référence. N'oubliez pas que vous devez croiser les informations de sources multiples afin de diminuer les risques d'erreurs.