matteocontrini Che io sappia no, il livello determina soltanto quali feature sono state usate nella codifica in modo che il decoder possa sapere se è in grado di decodificare il bitstream, appunto in termini di risoluzione, framerate, ecc. Il livello è solo un numero messo nel file e in genere viene scelto appunto in automatico in base ai parametri di output.
Il livello da dei vincoli e limitazioni, se per esempio hai un file in 1080p e lo ricodifichi con un livello più basso del normale, questo ti limiterà buffer e bitrate e ti andrà a castrare tutto il video.
Si può lasciare il tutto anche in automatico ma per esperienza personale, tante volte il programma ti andrà ad impostare dei livelli più alti di quelli che ti servono, usare livelli più bassi o più alti non è consigliato anche perchè questo avrà delle conseguenze in qualità e dimensioni.
matteocontrini Non mi risulta sinceramente 🙂 ad esempio per H.264 il codec più popolare in software commerciali è MainConcept H.264. Se usi software Adobe stai usando quello, molto probabilmente. Idem per Resolve o anche per i servizi AWS che io sappia, ma sono cose che non vengono sbandierate...
Non uso alcun programma a pagamento, quello che sapevo è che tutti o la maggior parte(Non so) dei programmi usa queste librerie Open Source o anche una versione ottimizzata per sistemi Intel ma non ho mai sentito o capito se utilizzano versioni ufficiali di questi codec.
AWS è un servizio online costosissimo che sinceramente non so se userò mai ed è un discorso a parte. X-D
Io uso principalmente FFmpeg che sulla carta è il migliore se si vuole puntare sulla qualità d'immagine e di compressione, di riserva uso Handbrake che a mio parere è un pochino peggio.
Comunque i codec Open Source per come sono stati scritti, funzionano allo stesso modo di quelli ufficiali(O molto vicini nel farlo). 😉 🙂