Fix the syntactic analyzer for real.
[TP_AL_C.git] / lexer / main.c
index f2b6df47660f77bb7c43c49b4752a7ea52582966..40550f5a85d0b2d8935fa00a1b83d3b32e1411a3 100644 (file)
@@ -13,7 +13,7 @@ void do_lexical_analysis() {
     c = fgetwc(source); // lecture du premier caractere
     do {
         scanner();
-        wprint_token_target();
+        wprint_token(target);
         token[tokenFound].type = tokenTypestr[tokenType];
         tokenFound++;
     } while (tokenType != FIN); // tant que la fin du fichier n'est pas atteinte
@@ -23,6 +23,7 @@ void do_syntactic_analysis() {
     fputws(L"<!DOCTYPE html PUBLIC \"-//W3C//DTD XHTML 1.0 Transitional//EN\" \"http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd\">\n<html xmlns=\"http://www.w3.org/1999/xhtml\" xml:lang=\"fr_FR\" lang=\"fr_FR\">\n",
            target);
     c = fgetwc(source); // lecture du premier caractere
+    scanner();
     analyze_AXIOME();
     fputws(L"</html>\n", target);
 }