-struct token_s {
- const char* type;
- wint_t value[50];
-};
-
-struct token_s token[TOKEN_MAX] = {NULL, 0};
-
-FILE *source = NULL, *target = NULL;
-wint_t c;
-unsigned int tokenFound = 0;
-enum TokenType {
- MOTCLE,
- SECTION,
- SSECTION,
- NPARA,
- MOT,
- FIN
-} tokenType;
-const char* tokenTypestr[] = { "MOTCLE", "SECTION", "SSECTION", "NPARA", "MOT", "FIN" };
-unsigned int i = 0;
-
-/* It looks silly to check for each characters but for debugging, it's just the way to go */
-bool istAlpha() {
- if (c == L'a' || c == L'b' || c == L'c' || c == L'd' || c == L'e' || c == L'f' || c == L'g' || \
- c == L'h' || c == L'i' || c == L'j' || c == L'k' || c == L'l' || c == L'm' || c == L'n' || \
- c == L'o' || c == L'p' || c == L'q' || c == L'r' || c == L's' || c == L't' || c == L'u' || \
- c == L'v' || c == L'w' || c == L'x' || c == L'y' || c == L'z' || \
- c == L'A' || c == L'B' || c == L'C' || c == L'D' || c == L'E' || c == L'F' || c == L'G' || \
- c == L'H' || c == L'I' || c == L'J' || c == L'K' || c == L'L' || c == L'M' || c == L'N' || \
- c == L'O' || c == L'P' || c == L'Q' || c == L'R' || c == L'S' || c == L'T' || c == L'U' || \
- c == L'V' || c == L'W' || c == L'X' || c == L'Y' || c == L'Z' || \
- c == L'.' || c == L'?' || c == L'!' || c == L',' || c == L';' || c == L':' || c == L'-' || \
- c == L'\''|| c == L'#' || \
- c == L'0' || c == L'1' || c == L'2' || c == L'3' || c == L'4' || c == L'5' || c == L'6' || \
- c == L'7' || c == L'8' || c == L'9' || \
- c == L'à' || c == L'â' || c == L'ç' || c == L'è' || c == L'é' || c == L'î' || c == L'ô' || \
- c == L'ù' || c == L'û' || \
- c == L'À' || c == L'Â' || c == L'Ç' || c == L'È' || c == L'É' || c == L'Î' || c == L'Ô' || \
- c == L'Ù' || c == L'Û') {
- return true;
- }
- return false;
+void do_lexical_analysis() {
+ c = fgetwc(source); // lecture du premier caractere
+ do {
+ scanner();
+ wprint_token_target();
+ token[tokenFound].type = tokenTypestr[tokenType];
+ tokenFound++;
+ } while (tokenType != FIN); // tant que la fin du fichier n'est pas atteinte