Précédent Remonter Suivant
Chapitre 7 La sémantique propositionnelle
La distinction que nous établissons dans ce document entre sémantique lexicale et sémantique propositionnelle n'est pas toujours prise en compte aussi explicitement. Pourtant, la notion de valeur de vérité, qui fait la particularité des propositions, joue un rôle un peu marginal en sémantique lexicale. Elle n'est intervenue dans le chapitre précédent que comme ce qui doit être préservé quand on remplace une unité lexicale par un de ses synonymes. Elle sera cette fois au centre de nos préoccupations. Il existe en effet une tradition philosophique (plutôt anglo-saxonne) très influente qui définit le sens d'une proposition comme ``les conditions qui doivent être vérifiées dans le monde pour qu'elle soit vraie''. Cette tradition entretient des liens très étroits avec la logique, branche des mathématiques qui se focalise sur le raisonnement juste : celui qui, précisément, garantit l'enchaînement de propositions vraies. C'est aussi dans ce chapitre, par le biais de la notion de ``modèle'', lui aussi issu de la logique, que nous allons explorer la 3ème solution à l'impasse de la ``circularité du sens'', consistant à ``projeter'' dans un espace mathématique particulier les ``sens'' véhiculés par un énoncé.

1 Description linguistique

Nous exposons dans cette partie quelques-uns des concepts fondamentaux auxquels font appel les linguistes et les logiciens pour analyser le sens d'une proposition. La logique en tant que ``langue formelle'' sera, elle, plutôt présentée dans la partie ``modélisation informatique'' du chapitre, mais de manière très simplifiée car le domaine a atteint un très haut niveau de technicité, qu'on ne saurait viser dans le cadre de ce document.

1.1 Principe de compositionnalité

Comment se fait-il que le locuteur d'une langue naturelle quelconque soit capable de comprendre ou de produire une proposition qu'il (ou elle) n'a jamais entendue auparavant ?. Certes, on peut admettre que ce locuteur n'a à sa disposition qu'un vocabulaire fini. Mais une théorie qui se contenterait de répertorier la sémantique lexicale d'un ensemble fini de mots ne suffit pas : il faut expliquer comment les sens se combinent entre eux pour en produire de nouveaux.

Nous avons déjà vu au chapitre 5 qu'avec une grammaire formelle, qui est un dispositif entièrement fini, on peut produire une infinité de phrases, en associant à chacune d'elle une structure. Nous avons vu aussi que la structure syntaxique d'une phrase conditionne (ou, suivant le point de vue privilégié, est dépendant de) la façon dont celle-ci est interprétée (cf. les quatre structures possibles de ``Time flies like an arrow'', en figure 5.4).

Deux éléments contribuent donc à coup sûr à la compréhension d'une proposition : la sémantique des mots qui y figurent, et sa structure syntaxique. Le ``Principe de compositionnalité'' stipule que ces deux éléments sont en fait les seuls nécessaires. Dans sa formulation contemporaine, il s'énonce comme suit : ``le sens d'une proposition ne dépend que du sens des mots qui la constituent et de leur mode de combinaison syntaxique''. On peut le ``résumer'' en quelque sorte par le schéma de la figure 7.1, qui reprend celui de la figure 2.1, mais où les flèches en gras visualisent les points de départ et d'arrivée d'un calcul.


Figure 7.1 : Le principe de compositionnalité


On fait parfois remonter ce principe à Frege, le créateur à la fin du XIXème siècle de la logique des prédicats du 1er ordre (abordée plus loin), mais sa formalisation précise date en fait des années 1970. C'est à cette époque que le logicien Richard Montague propose en effet un système syntaxico-sémantique complet et authentiquement compositionnel, constitué d'un ensemble fini de règles syntaxiques, chacune associée à une règle sémantique. A partir d'un arbre d'analyse, il suffit de remplacer les unes par les autres et de substituer aux mots leur ``traduction sémantique'' pour obtenir une formule qui, après calculs, représente le sens de la proposition initiale. Nous verrons en section 2.3 une version simplifiée de ce système. La connaissance d'un nombre fini d'éléments suffit donc bien, dans ce cas, à produire une infinité de combinaisons possibles (et ceci, bien sûr, grâce à la ``productivité infinie'' des règles syntaxiques récursives). Une proposition jamais entendue auparavant, du moment qu'elle ne contienne que des mots connus et qu'elle soit syntaxiquement analysable, est alors interprétable.

Ce principe est l'objet, encore à l'heure actuelle, de travaux et de controverses. Certains linguistes le trouvent insuffisant pour rendre compte du sens de certaines constructions complexes. Chaque langue fournit ainsi son contingent d'énoncés non compositionnels : par exemple, le sens d'une expression figée idiomatique comme ``casser sa pipe'' n'est pas le résultat de la composition des sens des mots présents. Mais de telles expressions peuvent être considérées comme des ``unités lexicales complexes'' à elles toutes seules. Dans d'autres cas, des éléments de ``contexte'' ou de ``pragmatique'' (utilisation concrète du langage en situation), absents de la figure, semblent devoir intervenir dans le ``calcul'' du sens.

D'autres linguistes, au contraire, voudraient étendre son domaine d'application, en élaborant par exemple une ``morphologie compositionnelle'', donnant lieu à un schéma du genre de la figure 7.2 (d'autres extensions possibles concernent par exemples le niveau du ``discours'' qui demande une articulation supplémentaire au-delà des propositions). Le principe de compositionnalité est de toute façon une référence incontournable de la linguistique contemporaine. C'est en quelque sorte lui qui permet de faire ``tenir ensemble'' tous les niveaux d'analyse linguistique, et qui justifie l'apport propre de chacun d'eux au sens global d'un énoncé.


Figure 7.2 : Le principe de compositionnalité généralisé


1.2 Prédicats verbaux et rôles thématiques

Rentrons maintenant un peu plus précisément dans l'analyse du sens d'une proposition. Le verbe y tient incontestablement une place privilégié : c'est lui la ``tête'' (cf. le chapitre 5, section 1.5 et la figure 5.5) d'un syntagme propositionnel. On considère généralement qu'il se comporte comme un prédicat, c'est-à-dire : Les arguments associés à un verbe sont parfois désignés comme des rôles. Mais il faut distinguer les rôles syntaxiques des rôles sémantiques : Dans les constructions à la forme passive, comme dans ``la souris est mangée par le chat'', le sujet syntaxique de la phrase (``souris'') ne coïncide pas avec l'agent de l'action (ici ``le chat''). Il n'existe donc pas de correspondance absolue entre ces divers rôles.

Les langues naturelles emploient différentes stratégies pour caractériser le rôle des arguments d'un prédicat. En français ou en anglais, l'ordre des mots est prépondérant, et le verbe s'accorde en personne et en nombre avec son sujet syntaxique. D'autres langues utilisent un système de cas, se traduisant pas des déclinaisons : certains morphèmes lexicaux subissent ainsi des variations (par le biais de morphèmes grammaticaux) qui désignent leur rôle thématique. Nous en avons encore quelques traces en français : ce qui distingue ``je le donne'' de ``je lui donne'' est la déclinaison sous laquelle apparaît le pronom ``le''. Dans les langues à déclinaison, l'ordre des mots est forcément plus libre que dans les autres, et la modélisation à base de grammaires formelles (cf. chapitre 5, section 2.4) plus difficile.

En dehors des arguments ``obligatoires'' des verbes, gravitent un certains nombre de ``modifieurs'' plus ou moins facultatifs : ils servent à donner des précisions temporelles (``hier, à midi...''), géographiques (``place de la concorde, à Paris...''), d'instrument (``avec un couteau'') ou encore de manière (``avec rage'')... Le recensement exhaustif de tous ces nouveaux rôles sémantiques n'est pas facile, et il existe diverses théories pour en rendre compte. D'un point de vue syntaxique, on constate aussi une grande variabilité dans la façon de les exprimer : le plus souvent, ce sont des adverbes ou des groupes prépositionnels qui jouent ce rôle, mais de simples groupes nominaux peuvent suffire : seules des connaissances de sémantique lexicale assez poussées peuvent expliquer que dans la phrase ``Le matin chante l'oiseau'', ``le matin'' n'est pas le sujet ni l'agent du verbe, mais un groupe exprimant le temps de l'action.

1.3 Théorie des modèles

La théorie des modèles est une des branches de la logique. On peut la voir comme une manière d'appliquer la théorie mathématique des ensembles à la modélisation du sens. Elle définit un ``monde de sens'' servant de référence pour évaluer la valeur de vérité de propositions. Nous n'en présentons ici qu'une version intuitive très simplifiée, inspirée de la ``sémantique de Montague'', du nom du logicien (déjà cité) qui l'a inventée.

Pour construire notre ``monde de sens'', nous n'aurons besoin que de deux briques de base : L'ensemble (au sens mathématique du terme) de toutes les entités constitue notre domaine, et est noté D. On définit maintenant dans cet espace un prédicat d'arité n comme étant une fonction de Dn vers {0,1}, autrement une fonction qui attend comme arguments n entités et qui donne comme résultat une valeur de vérité. Par convention, on notera toujours par la suite en indice l'arité d'un prédicat : un prédicat d'arité n sera par exemple noté Pn.

Une fonction à valeurs dans {0,1} est aussi appelée en mathématiques une fonction caractéristique. Elle identifie en effet un sous-espace particulier. Ainsi, un prédicat P1 d'arité 1 est une fonction de D dans {0,1}. On peut dire aussi qu'elle trie les éléments de D en deux sous-ensembles : ceux à qui P1 donne la valeur 0 et ceux à qui P1 donne la valeur 1. Evidemment, ce sont surtout ces derniers qui nous intéressent. P1 est ainsi complètement défini par l'ensemble des éléments de D auquel il attribue la valeur 1. Par exemple, nous avons vu dans la section précédente que le verbe ``dormir'' est d'arité 1. On peut le traduire dans notre espace par le prédicat dormir1, qui se représente par un sous-ensemble de D : le sous-ensemble des ``entités qui dorment''. Mais cette notion de prédicat ne s'applique pas exclusivement aux verbes. Beaucoup de ``noms communs'' ou d'adjectifs se comportent sémantiquement comme des prédicats à un argument : le prédicat chat1 représente l'ensemble des entités qui sont des chats, noir1 l'ensemble des entités qui sont de couleur noire, etc.

Les prédicats à deux arguments, eux, caractérisent un ensemble de couples d'entités. Par exemple, le prédicat regarder2 est vrai chaque fois qu'on lui fournit en arguments deux entités telles que la première regarde la deuxième. On peut le représenter comme un ensemble de liens entre entités. De manière générale, les prédicats d'arité n se représentent comme des ensembles de n-uplets (c'est-à-dire de listes de n éléments) d'entités.

Supposons donc que l'on veuille ``interpréter'', c'est-à-dire traduire en termes d'entités et de fonctions, le sens des propositions suivantes :``Minou est un chat'', ``Minou ne dort pas'', ``un chat dort'', ``tous les chats sont des félins'', ``Marie est un humain'', ``Marie dort'' et ``Minou regarde Marie''. Le domaine nécessaire à toute interprétation de ces phrases comporte au minimum les entités ``Minou'' et ``Marie''. Nous avons aussi besoin de quatre prédicats à un argument : chat1, dort1, felin1 et humain1, et d'un prédicat à deux arguments : regarde2. Une interprétation fixe une valeur de vérité à toute application d'un prédicat sur les éléments du domaine.

Un modèle pour un ensemble de propositions est une interprétation qui rend vraie chacune d'elle. Dans notre exemple, construire un tel modèle impose par exemple que Minou fasse partie de l'ensemble des ``félins''. Mais d'autres choix sont laissés libres : par exemple, rien n'indique dans les propositions citées que les humains ne peuvent pas être des félins. Si nous respectons tout de même cette contrainte implicite, nous devons ajouter une entité anonyme qui aura à la fois la propriété d'être un chat et de dormir (puisque ce ne peut être ni Minou ni Marie...). On peut dessiner un ``modèle'' ensembliste pour nos phrases à la manière de la figure 7.3, où l'ensemble global dessine les contours de D.


Figure 7.3 : représentation graphique d'un modèle


Par ce schéma, on mesure bien que les termes linguistiques s'interprètent comme des catégories (cf. chapitre 6, section 1.1) et qu'il peut exister des relations hiérarchiques entre catégories (cf. chapitre 6, section 1.6) : le fait que ``chat'' est un cas particulier de ``félin'' se traduit par une inclusion entre ensembles. Un modèle décrit donc de manière abstraite et rigoureuse un ``état du monde'' où certaines propositions sont vraies. Il permet aussi d'évaluer la valeur de vérité d'une proposition nouvelle. Par exemple, dans le modèle précédent, la proposition ``Minou est un félin'' est vraie mais ``Minou est un humain'' est fausse.

Il existe de très nombreuses extensions de ce système, finalement bien rudimentaire pour traduire tout ce que le langage peut signifier. Par exemple, la situation dans le temps d'une proposition nécessite des ajustements. Certains auteurs imaginent l'échelle temporelle comme une règle graduée (un ensemble d'``indices'' ordonnés t1, t2, t3,...) : à chaque indice, il faut redéfinir complètement l'interprétation, c'est-à-dire la valeur de chaque fonction pour chaque entité. ``Marie dort'' peut très bien être vrai à un certain moment ti, et faux à l'instant d'après ti+1... En généralisant ce principe, on en est même venu à envisager un ensemble potentiellement infini de ``mondes possibles'' pour pouvoir interpréter correctement des propositions comme ``il est possible que Marie dorme'' (autrement dit : il existe au moins parmi l'ensemble des ``mondes possibles'' un monde où ``Marie dort'' est vrai). Mais détailler de telles subtilités nous emmènerait trop loin.

Nous reviendrons dans la partie ``modélisation informatique'' sur les formalismes logiques à l'origine de la notion de modèle. L'important ici est ce que nous suggèrent les logiciens : comprendre une proposition, cela signifie être capable d'en créer un modèle. Ce programme est pris très au sérieux par certains psychologues, qui estiment que les humains construisent des ``modèles mentaux'' qui les aident à raisonner. L'idée n'est pas acceptée par tout le monde, mais elle est séduisante...

2 Modélisation informatique

La ``théorie de modèles'' dont nous venons de parler pourrait bien sûr être considérée comme une ``modélisation informatique''. Nous verrons en effet tout de suite qu'elle s'inscrit dans le cadre plus général de la logique, ici envisagée comme un langage formel de représentation des connaissances. L'autre famille de modèles évoquée ci-dessous, à base de graphes, entretient d'ailleurs aussi avec elle des liens étroits.

2.1 Les origines de la logique

La logique, en tant que ``science du raisonnement juste'' remonte à Aristote et sa mémoire a traversé les siècles : les étudiants du Moyen-Age apprenaient par coeur les 14 ``figures de syllogismes'' identifiées par ce dernier. La plus célèbre de ces figures permet de déduire, à partir de propositions de la forme ``tout A est B'' (par exemple ``tout homme est mortel'') et ``C est A'' (par exemple ``Socrate est un homme'') qu'on a nécessairement ``C est B'' (``Socrate est mortel'').

Ramener le raisonnement à un ``calcul universel'' était un rêve que Leibniz, grand philosophe du XVIIIème siècle, a aussi caressé. Mais ce n'est qu'au XIXème siècle qu'on a vraiment commencé à ``mathématiser'' la capacité de déduction. On doit à Georges Boole (1815-1864) un progrès significatif en la matière : les opérateurs ``booléens'' lui doivent leur nom. Nous évoquons brièvement ici la ``logique propositionnelle'' qui est directement issue de ses travaux.

La logique propositionnelle est un langage formel dont les ``formules bien formées'' (syntaxiquement correctes) sont bâties à partir d'un ensemble potentiellement infini de ``variables propositionnelles'' qu'on note traditionnellement p, q, r, etc. Chacune de ces variables peut prendre soit la valeur ``faux'' (ou 0) soit la valeur ``vraie'' (ou 1). Les formules sont construites de la façon suivante : Les symboles ¬, ∨, ∧ et sont les ``opérateurs booléens'' auxquels nous faisions précédemment allusion. ¬ est un peu à part : il s'applique sur un seul argument, et a pour effet d'inverser les valeurs de vérité. Si p est vrai, alors ¬p est faux, et inversement. Les trois autres opérateurs combinent deux arguments, à la manière des opérateurs mathématiques usuels (+, -, *, /). Quand plusieurs d'entre eux sont utilisés pour construire une formule complexe, on doit utiliser des parenthèses ``('' et ``)'' pour expliciter l'ordre d'application. La manière dont ils agissent sur les valeurs de vérités des propositions qu'ils combinent est donnée dans les ``tables de vérité'' de la figure 7.4

p q pq
0 0 0
0 1 1
1 0 1
1 1 1
p q pq
0 0 0
0 1 0
1 0 0
1 1 1

Figure 7.4 : tables de vérité


Par ailleurs, p q est équivalent à (c'est-à-dire a exactement les mêmes valeurs de vérité que) ¬pq. Cela signifie en particulier que, d'une proposition fausse, on peut déduire n'importe quoi. Par exemple, la proposition ``si la France est une monarchie alors le pape est une femme'' est vraie car si on la représente par la formule m pm signifie ``la France est une monarchie'' et p ``le pape est une femme'', alors comme m doit recevoir dans notre monde actuel la valeur de vérité ``fausse'', ¬m est vrai et l'ensemble de la formule ¬mp est aussi vraie !

En logique propositionnelle, les affectations de variables propositionnelles tiennent lieu d'``interprétation'', et un modèle est aussi une affectation qui rend une formule vraie. Par exemple, un modèle possible de la formule (pq)∨r est l'interprétation : p=0, q=1 et r=1. Une formule pour laquelle toutes les affectations possibles des variables sont des modèles est appelée une tautologie. Par exemple : p∨ ¬p est une tautologie. Une formule qu'il est impossible de rendre vraie, comme p∧ ¬p est une contradiction. Une formule pour laquelle il existe au moins un modèle est satisfable, une pour laquelle il existe au moins une affectation de variables qui la rende fausse est falsifiable. Une tautologie est un cas particulier de formule satisfiable, une contradiction un cas particulier de formule falsifiable. Une formule qui n'est ni l'une ni l'autre comme (pq)∨r est à la fois satisfiable et falsifiable.

Utiliser la logique propositionnelle pour ``représenter des connaissances'' est un peu malaisé et grossier, puisqu'un symbole doit à lui tout seul ``représenter'' toute une proposition. Par exemple, pour signifier ``une porte est ouverte ou fermée'', on peut définir la variable o qui signifie ``une porte est ouverte''. ¬o symbolise alors ``il est faux qu'une porte est ouverte'' -autrement dit ``une porte est fermée''- et la proposition initiale se représente donc par : o∨ ¬o, qui, on vient de le voir, est une tautologie. Pour ``tout homme est mortel'', on peut choisir une variable h signifiant ``être un homme'' et une variable m pour ``être mortel'' : la proposition est alors représentée par la formule h m.

Le point fort de la logique propositionnelle n'est pas dans l'expressivité de ses formules : il est dans sa capacité à formaliser des raisonnements. Par exemple, une règle de déduction simple qui y est applicable est connue sous le nom de ``modus ponens'' (ou règle de détachement) : elle stipule que si on a simultanément deux propositions vraies de la forme p q et p respectivement, alors q est nécessairement vraie (ce que l'on vérifie aisément avec les tables de vérité) et on peut donc la ``déduire''. C'est le pendant -un peu approximatif tout de même- du raisonnement aristotélicien : si h m (``chaque homme est mortel'') et h (``être un homme'') sont vrais simultanément, alors on en déduit que m (``être mortel'') est également vrai.

Tout l'effort des logiciens consiste à définir des règles de ce genre qui, en ne prenant en compte que la forme des expressions manipulées, garantissent que certaines propriétés portant sur leurs valeurs de vérité soient satisfaites.

2.2 Logique des prédicats du 1er ordre

En logique propositionnelle, l'``atome'' est la proposition, elle est indécomposable. Il est donc impossible de rendre compte de points communs entre propositions, comme le fait que les expressions ``Marie dort'' et ``Minou ne dort pas'' utilisent le même prédicat, ou que ``Minou ne dort pas'' et ``Minou regarde Marie'' partagent une même entité. La logique des prédicats du 1er ordre, inventée par Frege à la fin du XIXème siècle, remédie à cette ``pauvreté expressive'' de la logique propositionnelle, en opérant une distinction fondamentale entre ``termes'' et ``prédicats'', et en définissant une proposition comme une combinaison de ces éléments.

Pour définir le langage de la logique des prédicats du 1er ordre (abrégée par la suite en LPO), on a besoin de disposer d'un stock potentiellement infini de constantes, et d'un stock potentiellement infini de variables. Ces dernières serviront non pas à exprimer des propositions, comme précédemment, mais plutôt à désigner des entités. On suppose en outre pouvoir utiliser à volonté un ensemble de prédicats, chaque prédicat ayant sa propre arité. Dans sa forme la plus générale, la LPO permet aussi d'employer des fonctions qui, à partir d'un certain nombre d'arguments, donnent comme résultat un terme (une entité), mais nous laissons volontairement de côté cette possibilité ici, parce qu'elle est peu utilisée pour traduire des propositions du langage naturel.

Les formules de la LPO respectent les règles de construction suivantes : Avec ce langage, on peut traduire en formules toutes les propositions qui ont donné lieu au modèle de la section 1.3. Les constantes nécessaires sont ``Minou'' et ``Marie'', les prédicats sont ceux introduits dans cette section, et les formules bien formées correspondantes sont : La LPO est donc bien un langage de ``représentation des connaissances''. Il permet d'exprimer des faits et des ``règles'' (``tous les chats sont des félins'' est plutôt une règle générale qu'un fait instancié) de manière rigoureuse. Là où les langues naturelles autorisent des ambiguïtés, la logique, elle, impose des choix. Par exemple, la phrase ``Jean qui regarde Paul que Marie aime dort'' peut s'interpréter de deux façons différentes, suivant que Marie aime Jean ou Paul. Suivant le choix fait, on la traduira donc soit pas : regarde2(Jean,Paul)∧aime2(Marie,Jean)∧dort1(Jean), soit par : regarde2(Jean,Paul)∧aime2(Marie,Paul)∧dort1(Jean). Une autre ambiguïté classique tient à l'ordre des quantificateurs et quand il sont présents tous les deux dans une même formule. Ainsi, pour traduire une proposition comme ``chaque étudiant apprend une langue étrangère'', on a le choix entre : Traduire en LPO une proposition impose donc de la ``désambiguiser'' pour exprimer son sens de manière précise. Les formules de la LPO peuvent être traduites en termes d'ensembles et de fonctions à l'aide d'une interprétation. Une interprétation associe une entité du domaine à chaque constante et à chaque variable du langage, et une fonction caractéristique (c'est-à-dire un ensemble) à chaque prédicat. Comme nous l'avons déjà vu, un modèle est une interprétation qui rend une formule ou un ensemble de formules vraie(s). Comme en logique propositionnelle, on peut définir les notions suivantes : Comme la logique propositionnelle, la LPO permet aussi de rendre compte de déductions. Par exemple, il est évident que dans tout modèle des formules précédentes, ``Minou est un félin'', c'est-à-dire felin1(Minou) est aussi vrai. De même, en LPO, on traduirait ``tout homme est mortel'' par x [homme1(x) mortel1(x)] et ``Socrate est un homme'' par homme1(Socrate). Tout modèle rendant vraies ces deux formules rend vraie aussi la formule mortel1(Socrate). Pour expliciter ce genre de déductions sans avoir pour autant à contruire ``toutes les interprétations possibles'', les logiciens ont identifié des méthodes qui ne se fondent, encore une fois, que sur la ``forme'' des expressions logiques. Il existe ainsi une sorte de ``modus ponens généralisé'' autorisant à déduire mortel1(Socrate) des deux formules précédentes. Le langage de programmation Prolog (abréviation de ``Programmation logique'') est fondé sur la LPO. Les déductions de ce genre y sont automatisées.

Enfin, il existe de nombreuses variantes et extensions de la LPO, qui s'interprètent à l'aide des modèles ``étendus'' du type de ceux évoqués en fin de section 1.3. Elles s'appellent par exemple ``logique temporelle'' ou ``logique modale''. Mais plus on gagne en expressivité, plus on perd en efficacité de raisonnement.

2.3 Exemple récapitulatif

Les systèmes syntaxico-sémantiques qui mettent en oeuvre le principe de compositionnalité rendent totalement explicite la succession des traitements qui, partant d'une phrase en langue naturelle, aboutissent à sa représentation sémantique. C'est le cas de celui de Montague, dont nous nous inspirons ici. Montrons par exemple comment produire automatiquement les formules logiques qui traduisent ``Marie dort'' et ``un chat dort'' à partir de l'analyse de ces phrases.

Le formalisme syntaxique employé ici est celui des grammaires catégorielles, défini par : Une grammaire catégorielle est alors une association entre mots et catégories, comme dans le tableau ci-dessous :

mot catégorie
Marie T
dort T\S
chat CN
un (S/(T\S))/CN

Les règles syntaxiques se limitent, elles, à deux schémas applicables pour toutes catégories A et B comme suit : Ces schémas sont très similaires à des ``réductions de fraction'' mathématiques. Dans ce formalisme, une suite de mots est considérée comme syntaxiquement correcte si on peut lui associer une suite de catégories qui, en appliquant ces schémas des feuilles vers la racine de l'arbre, se réduit à S. Les grammaires catégorielles sont un exemple typique de formalisme lexicalisé : ce sont les catégories associées aux mots qui déterminent comment ils pourront se combiner les uns avec les autres. Elles ont la même expressivité que les grammaires algébriques (à la chaîne vide ε près).

``Marie dort'' et ``un chat dort'' font partie du langage de notre grammaire, comme en attestent les arbres de la figure 7.5 :


Figure 7.5 : arbres d'analyse syntaxique


Pour obtenir la traduction sémantique de ces phrases, il faut commencer par préciser la sémantique lexicale des mots qui y figurent. Comme attendu, ``Marie'' doit être traduite par une constante logique notée Marie, ``dort'' et ``chat'' par des prédicats à un argument notés respectivement chat1 et dort1. Nous verrons plus loin quelle traduction associer au mot grammatical ``un''. Pour mettre en oeuvre le principe de compositionnalité, il faut construire un ``arbre sémantique'', en partant des feuilles et en ``remontant'' à la racine, de la façon suivante : La figure 7.6 reprend en l'instanciant sur la phrase ``Marie dort'' la partie basse du schéma du principe de compositionnalité de la figure 7.1. La racine de l'arbre sémantique en bas à droite du schéma, obtenu en appliquant les règles précédentes, est bien la traduction logique attendue dort1(Marie) de la phrase ``Marie dort''.


Figure 7.6 : le principe de compositionnalité instancié


Pour finir, expliquons brièvement comment obtenir automatiquement la traduction de la phrase ``un chat dort'', à savoir x [chat1(x)∧dort1(x)], à partir de son arbre d'analyse syntaxique, à droite de la figure 7.5. Notons que, dans cet arbre, nous avons fait le choix d'associer une catégorie syntaxique complexe au mot ``un'', de sorte qu'il ``attende'' sur sa droite deux arguments : d'abord un de catégorie NC (un nom commun), puis un autre de catégorie T\S (un verbe intransitif). La justification de ce choix est sémantique.

En effet, connaissant déjà les traductions de ``chat'' et de ``dort'', ce qu'il manque pour obtenir la formule finale est quelque chose comme : x [P(x)∧Q(x)], où P pourrait être remplacé par chat1 et Q par dort1. C'est exactement une formule de ce type que Montague propose d'associer à ``un''. En faisant en sorte (par un mécanisme que nous ne donnons pas ici) que l'``application'' de cette formule successivement à chat1 puis à dort1 entraîne une substitution de ses variables P et Q par ces prédicats, on obtient bien la formule souhaitée. Non seulement le principe de compositionnalité est alors complètement respecté, mais en plus l'épineux problème de la nature sémantique des mots grammaticaux reçoit une solution élégante : les mots grammaticaux doivent être traduits par des formules logiques ``grammaticales'', c'est-à-dire écrites à l'aide de quantificateurs et de variables, mais où les prédicats restent abstraits, prêts à être substitués par ceux qui traduisent les mots lexicaux présents dans la phrase.

Le système de Montague est extrêmement séduisant et a fait l'objet de nombreux travaux, pour l'étendre et l'affiner tant d'un point de vue syntaxique que sémantique. C'est le système de référence de tous ceux qui défendent une application stricte du principe de compositionnalité.

2.4 Autres modèles

Pour représenter la sémantique d'une proposition sans faire appel à des formules logiques, certains auteurs préfèrent utiliser des graphes ou des schémas. La théorie des graphes conceptuels a ainsi été proposée dans les années 80 par John Sowa. Le sens d'une phrase comme ``le petit chat mange une souris'' y est représenté par le graphe de la figure 7.7.


Figure 7.7 : un graphe conceptuel


En fait, on peut traduire tout le formalisme des graphes conceptuels en formules logiques équivalentes. Mais les graphes ont l'avantage d'être plus lisibles et facilement interprétables par des humains. De même, la décomposition en primitives des verbes d'action, évoquée en section 1.4, a été utilisée par Schank pour donner une représentation graphique aux propositions complètes. Par exemple, dans son système, ``Pierre dit à Paul que Jean a donné un livre à Marie'' donne lieu au schéma de la figure 7.8.


Figure 7.8 : un graphe ``à la Schank''


Dans ce schéma, outre les primitives MTRANS (qui signifie ``transfert d'information'') et ATRANS (``transfert de propriété''), on utilise les étiquettes ``a'' pour ``agent'', ``o'' pour ``objet'' et ``d-b'' pour un couple ``donnateur-bénéficiaire''. Schank définit en fait un ensemble de rôles conceptuels servant à relier entre elles les entités intervenant dans son schéma.

Les efforts les plus récents pour étendre ce type de représentations ont porté sur la sémantique des discours, où les phénomènes de reprises anaphoriques (c'est-à-dire de référence, dans une phrase, à des entités introduites dans des phrases précédentes) obligent à envisager des modèles plus raffinés. La Théorie des Représentation du Discours (DRT en anglais) est née précisément pour répondre à cet objectif. Une DRS (Discourse Representation Structure) est une représentation fondée sur la LPO, mais où les ``référents du discours'' sont isolés en ``en-tête'' de la structure contenant les formules elles-mêmes, et ainsi rendus accessibles à la suite du discours. La DRS modélisant ``Minou regarde Marie. Elle dort'' est donnée dans la figure 7.9.


Figure 7.9 : une DRS très simple


Cette théorie a permis de résoudre certains problèmes délicats laissés par la LPO. Le plus célèbre d'entre eux était dû aux ``donkey sentences'', dont l'exemple prototypique est la phrase ``chaque fermier qui possède un âne le bat''. Pour traduire en logique cette phrase, on peut proposer la formule suivante :
x [fermier1(x)∧ y [ane1(y)∧possede2(x,y)] battre2(x,y)]
Cette formule n'est malheureusement pas correcte parce que la variable y présente dans l'expression battre2(x,y) n'a en fait aucune raison d'être la même que celle introduite par le quantificateur , dont la ``portée'' s'arrête aux frontières du crochet qui le suit. En DRT, les quantificateurs ne sont plus nécessaires (ils sont remplacés par des ``règles d'accessibilité'' entre en-têtes et sous-structures) et, cette phrase ne pose pas de problème : elle peut se traduire par la DRS de la figure 7.10.


Figure 7.10 : la DRS qui résout les ``donkey sentences''


Enfin, la SDRT est une extension récente de la DRT où les liens rhétoriques entre phrases sont analysés de façon encore plus fine.

2.5 Problèmes

Ce tour d'horizon ne doit pas laisser penser que la question du sens est désormais totalement résolue. Aussi élaborées et séduisantes soit-elles, les théories abordées brièvement dans ce chapitre sont loin de faire l'unanmité, et laissent derrière elles de nombreuses zones d'ombre.

Tout d'abord, le sens commun des mots ``et'' et ``ou'' ne coïncide pas vraiment avec celui des connecteurs logiques correspondants. Ils sont beaucoup plus ambivalents que ne le laissent penser leur table de vérité : si ``j'aime lire ou aller au cinéma'', cela signifie que j'aime les deux à la fois, mais si on me demande ``fromage ou dessert'', je n'ai cette fois pas droit de choisir les deux. Ces conjonctions peuvent aussi servir à exprimer des rapports de nature temporelle ou causale (``le verre est tombé par terre et s'est cassé'')...

Les modèles logiques requièrent par ailleurs de représenter par des ``entités'' tout ce qui ``existe'' dans le monde. Mais le mode d'existence des individus, des mythes (les licornes), des concepts (la démocratie) n'est pas tout à fait comparable. Est-ce que représenter le sens du groupe nominal ``une bonne idée'' par x[idee(x)∧bonne(x)] est une si bonne idée que cela ?

Les entités nommées sont aussi beaucoup plus problématiques que nous ne l'avons laissé croire jusqu'à présent. ``Georges W. Bush'' désigne un individu historique précis mais ``le président des Etats-Unis'' désigne quelqu'un de différent suivant le temps de référence. D. Kayser montre qu'un terme comme ``Prix Goncourt'' est très polysémique : Les pluriels et les ``quantificateurs généralisés'' (comme : ``une partie de(s)'', ``la plupart de(s)'', ``beaucoup de(s)''...) sont aussi difficiles à traduire en formules de la LPO. Et certaines ambiguïtés les concernant ne peuvent être levées qu'en faisant appel à des connaissances extérieures : comment expliquer autrement que quand je vois ``trois hommes portant un piano'', je ne vois qu'un seul piano, mais quand je vois ``trois hommes portant une barbe'', je vois plusieurs barbes...

Le langage courant, enfin, est truffé de figures de styles qui sont très mal prises en compte par le genre de sémantique que nous avons développée ici. Les principales sont : Nous réalisons sans nous en rendre compte énormément d'inférences lors de l'interprétation de certaines phrases. Un garçon de café peut dire sans être ridicule ``le sandwich au jambon est parti en courant'', parce que nous avons décodons la métonymie ``sandwich''=``acheteur de sandwich'' et que nous connaissons les étapes conventionnelles par lesquelles doit se dérouler la transaction d'un sandwich dans la vie quotidienne. De même, nous savons bien qu'en disant ``le policier leva la main, la voiture s'arrêta'', nous ne parlons pas nécessairement de Superman arrêtant les voitures par sa force, mais d'un simple agent qui agit conformément à l'autorité conférée à son costume, et que si une voiture s'arrête, c'est parce que son conducteur l'a bien voulu... Lesquelles de ces inférences devraient-elles être modélisées ? Jusqu'où ne pas aller trop loin ?

Schank (toujours lui) a par exemple développé dans les années 70 toute une théorie pour rendre compte de ce genre de raccourcis. Il l'a mise en oeuvre dans un système de résumé automatique de dépêches d'agences de presse, qui essayait d'identifier le domaine dont il était question avant de remplir des champs prédéfinis. On dit que pour résumer un article qui titrait ``la mort du pape secoue le monde occidental'', le programme avait rempli les champs suivants : événement=``tremblement de terre'', victime=``le pape''...

De manière générale, la réduction de la sémantique à des formalismes abstraits a tendance à exclure tout ce qui ne relève pas de la ``fonction référentielle'' du langage (cf section historique du chapitre 2, en particulier les ``fonctions du langage'' de Jakobson). C'est aussi la conséquence de notre parti-pris de ramener le sens propositionnel aux valeurs de vérité. L'ironie ou l'humour, par exemple, ont besoin d'autres cadres pour être analysés. Les spécialistes de la pragmatique, c'est-à-dire de l'usage du langage en situations remettent sérieusement en cause ce parti-pris.

Le langage courant véhicule une quantité incroyable d'informations. Toute notre connaissance du monde s'y exprime. Pour le ``modéliser'' correctement dans la mémoire d'une machine, il faudrait d'abord modéliser le monde dans son ensemble, avec ses lois physiques et son écosystème, sans oublier les conventions sociales et les mondes imaginaires de ses habitants. Le chantier n'est pas prêt d'être achevé.

2.6 Sites Web

Il existe des programmes capables de transformer des phrases en représentations abstraites (formules logiques ou graphes), mais ce sont en général des prototypes au vocabulaire limité. Les sites suivants sont un peu plus généraux.
Précédent Remonter Suivant