che cafone che sono! scusa, mi ero perso il tuo post...
uso il thread sia come discussione, sia come blog, se incasino perdonatemi. Lo faccio perchè trovo che sia molto fastidioso quando un progetto non da segni di vita per settimane. Visto che quasi ogni giorno combino qualcosa, per piccola che sia, ne do notizia. le vostre osservazioni sono molto utili nel processo di sviluppo, e nell'ideazione.
Dicevamo...
Pensi di includere il labiale?(lo chiedo perche' anche qualora non si effettui un doppiaggio puo' essere cmq gradevole)
Già ora può essere definita un'animazione per ogni frase pronunciata dal giocatore oppure dall'interlocutore. Ciò permette il lip sync particolare (ogni frase ha una unica animazione che perfettamente collima con l'audio e con il testo) e quindi è possibile anche un lipsync generico che agisca quando non è definita un'animazione in particolare. Tuttavia vi sono alcune questioni da sciogliere:
RF supporta solo animazioni su scheletro, ovvero i vertici di un modello devono essere "linkati" ad uno "scheletro" ed animati muovendo le "ossa" (vi consiglio di cercare su google milkshape3d per capire...). Nei giochi di solito le animazioni facciali sono invece fatte usando le animazioni a "deformazione" (Morph animations) perchè sono più facili da gestire. C'è un solo programma che permette di avere il riconoscimento vocale istantaneo su modelli del viso che utilizzano lo scheletro: si chiama lipsync tool ma costa e per il momento non l'ho provato. C'è un programma che permette di fare il lipsync "a mano" con RF che si chiama ActView+ ma, seppure sia possibile, è un bel lavoraccio fare in questo modo la sincronia di tutta un'avventura.
D'altra parte, ciò che caratterizza la parlata non sembra essere più di tanto il labiale ma la posa complessiva del personaggio, oppure l'espressione facciale indipendentemente dal movimento delle labbra (occhi, angoli della bocca...). E' quindi importante che vi sia anche un set di pose corporee.
Quindi, le soluzioni possibili sono molte. Al momento non ho (e, nonostante le mie prove ripetute, non sono riuscito ad ottenere) un modello che avesse lo skeletro anche sul viso, altrimenti le parlate avrebbero già un'animazione facciale generica. Ho provato a staccare la testa dal corpo dei personaggi per tenere i due set di animazione separati: da una parte il corpo e dall'altra solo il labiale e le espressioni del viso. La testa si animava bene ma il risultato complessivo non era soddisfacente poichè camminando essa si muoveva sempre con un po' di ritardo rispetto al corpo.
Se solo conoscessi meglio 3ds max, potrei riuscire a linkare sul biped le ossa del viso, ma al momento non ci sono riuscito e questo sembra essere l'unico modo per avere entrambe le cose. Infatti a mio parere è molto importante che la sorgente delle animazioni rimanga il biped di max, per poter utilizzare gli archivi di animazioni motion capture presenti in rete (altrimenti sarà difficile svilupare un'avventura con le bellicose animazioni degli sparatutto) e per riutilizzare le animazioni per più personaggi.
Quello del lipsync è quindi un capitolo ancora aperto.
La soluzione che al momento sembra più facilmente percorribile è quella di tenere un lipsync generico per lo svolgimento del gioco e fare il lipsync particolare a mano per le scene cinematiche. In entrambi i casi bisogna risolvere la questione dentro 3ds max.
Spero di avere risposto esaurientemente alla tua domanda.