Add .cquery file for LS.
[TP_AL_C.git] / lexer / lexical_analyzer.c
index 36acd5e214098b47d2078cac42a2bb4d4779c15a..6f995ba1c414b209d7603d8296a0b8e5821a8a8e 100644 (file)
@@ -22,7 +22,7 @@ static bool isAlphaNum() {
         c == L'\''|| c == L'#' || \
         c == L'0' || c == L'1' || c == L'2' || c == L'3' || c == L'4' || c == L'5' || c == L'6' || \
         c == L'7' || c == L'8' || c == L'9' || \
-        // FIXME: Accentued characters (aka multibytes characters) support is still buggy
+        //FIXME: Accentued characters (aka multibytes characters) support is still buggy
         c == L'à' || c == L'â' || c == L'ç' || c == L'è' || c == L'é' || c == L'î' || c == L'ô' || \
         c == L'ù' || c == L'û' || \
         c == L'À' || c == L'Â' || c == L'Ç' || c == L'È' || c == L'É' || c == L'Î' || c == L'Ô' || \
@@ -200,13 +200,16 @@ FIN:
 
 error:
     if (tokenType == MOT || tokenType == MOTCLE) {
-        wpr_error(L"Scanner error with token type: %s and value: %ls\n",
+        fwprintf(stderr, L"%s error with token type: %s and value: %ls\n",
+                  __func__,
                   tokenTypestr[tokenType],
                   token[tokenFound].value);
     } else {
-        wpr_error(L"Scanner error with token type: %s\n",
+        fwprintf(stderr, L"%s error with token type: %s\n",
+                  __func__,
                   tokenTypestr[tokenType]);
     }
+    fflush(stderr);
     tokenType = FIN;
     exit(EXIT_FAILURE);
 }