Announcement

Collapse
No announcement yet.

presentazione e primi consigli

Collapse
X
 
  • Filter
  • Time
  • Show
Clear All
new posts

  • presentazione e primi consigli

    Buongiorno a tutti,
    innanzitutto, complimenti per il software e per il forum.

    Ho (per altri 13 giorni) la versione di prova della Lite, che è la versione che mi interesserebbe acquistare, ho guardato i tutorial che mi interessavano, e fatto la prima prova.

    Quello a cui vorrei arrivare sono oggetti di dimensioni di circa 30-40mm fino a 300-400mm e relativa texture superficiale, che sia la tessitura di uno stampo punzonato o della suola di una scarpa o del legno di una tavola di un violino eccetera. tanto per dirvi che non sono interessato attualmente a statue enormi o a riprese aeree. Non penso mi servirà qualcosa più grande di una chitarra, tanto per farvi un'idea...e così ad occhio mi pare che 500 foto possano bastare. il mio scopo finale nell'usare questo software è solo quello di ricavare un stl o una nuvola di punti.

    Lascio qualche pensiero sparso e qualche domanda, magari qualcuno può togliermi qualche dubbio ed aggiungere qualcosa, e magari qualcun altro può trarre beneficio.

    Volevo capire come ottimizzare l'attrezzatura che ho.

    La prima prova l'ho fatta con una Pentax K-01 (aps-c da 16Mp e fattore di crop 1,53 circa).
    Possiedo anche una Sony RX100mk3, ma visto il pixel size suggerito e la qualità di immagine ho pensato che fosse meglio usare l'aps-c, nonostante la minore profondità di campo.
    Potrei prendere tra poco una Pentax K-1 (36MP su sensore FF 36x24) ma come densità e pixel size siamo più o meno come la K-01 che possiedo già.
    come vantaggio ci sarebbe una migliore qualità di immagine ed il pixel-shift, che mi darebbe un dettaglio veramente migliore.
    come svantaggio ovviamente c'è la ridotta profondità di campo, peso, ingombri, costi eccetera, ma non la prenderei solo per fare le foto per 3DFLOW ovviamente
    Come lenti sono coperto, per FF ho un 16Fisheye un 24mm un 35mm un 50mm, un 100mm macro ed un 200mm, che possono essere utilizzati anche sulla aps-c ovviamente.
    purtroppo come obiettivo con un'eccellente risolvenza ho solo il 100 macro, in alternativa ho un 10-17 fisheye che è solo per aps-c, ma che è un mostro di risolvenza, il dubbio è se il software riesce a gestire il suo essere semi-fish a 17mm...

    Mi chiedevo come mai viene consigliato di usare ottiche grandangolari/normali invece che per esempio un 100mm macro, che ha pochissima distorsione ed una risolvenza da paura.
    Ho letto che la distorsione della lente aiuta il software nella ricostruzione.
    Chiedevo a voi se vale la pena (per una texture molto piccola ad esempio) provare a fare qualche prova con il 100mm macro sulla aps-c...

    Ho usato per la prima prova un 35mm dalla buona risolvenza (non un macro) e l'ho usato circa alla distanza minima di messa a fuoco, perché l'oggetto stava cmq già bene nel fotogramma.
    Ho scattato a F/9 iso200 e tempo 1/3s, cavalletto, telecomando, iso bassi e tempi di conseguenza.
    Ho disattivato la correzione distorsione, ombre, luci eccetera, ho lasciato solo quella per le aberrazioni cromatiche.
    Soggetto al centro di uno sgabello rotante, totale un centinaio di foto divise in 3 angolazioni, una quasi perpendicolare dall'alto verso il basso, una inclinata di circa 30°, una inclinata di circa 45°.
    illuminazione decente, bilanciamento del bianco settato per l'occasione.

    conviene farsi una specie di mira ottica come basamento per il soggetto?

    Il modello è venuto oltre 10 volte più piccolo dell'oggetto reale, immaginavo che non venisse in scala, posso "tarare" il software prima di dargli in pasto le foto? in ogni caso poi con un calibro ne verificherei le dimensioni...

    è possibile con la versione Lite esportare solo la nuvola di punti ascii o binario per far creare la mesh ad un altro software?

    l'indice di "qualità immagine" dal software viene indicata con un punteggio di 0.05 (poche, circa 6 su un centinaio) fino a scendere a 0.01 per per prime 50, e poi ancora meno le ultime 50...fanno tanto pena?
    per motivi di privacy non posso pubblicarle qui nel forum purtroppo. posso inviarle all'assistenza nel caso servisse.

    il modello se è di gomma, liscio, bianco, va sempre spruzzato con una di quelle bombolette opacizzanti apposite?
    io non l'ho fatto, è per quello che l'stl mi è venuto tutto brutto a gobbe/brufoloso?

    il file del progetto.zep si tiene dentro sempre tutto? il progetto di prova con 99 foto, una nuvola di punti ed una mesh è mezzo giga...

    considerazione finale sul pc:

    prova fatta su un laptop dell precision 7710

    processore intel i7-6920HQ 2.9GHz
    un ssd da 512Gb + un M2 da 256Gb
    48Gb di ram
    scheda video nvidia M5000M (8Gb dedicati)
    win10 pro 64 bit

    la cpu è stata al 100% praticamente per tutta la fase di elaborazione foto/generazione della nuvola di punti, dove la scheda video ha lavorato poco o niente, poi nella creazione della mesh a tratti la cpu al 100% alternata a qualche picco intorno al 20-30% della scheda video. pe quanto riguarda la ram sinceramente non ci ho fatto caso

    mi chiedevo se il comportamento fosse normale, e se sia normale che con tutti i parametri su "default" ci voglia circa un quarto d'ora per arrivare ad esportare la mesh.
    con le stesse foto, utilizzando le impostazioni per "oggetti vicini" ed i dettagli al massimo ci possa volere anche quasi un'ora.
    parliamo di 99 jpeg non elaborati da 6Mb circa ciascuno, circa 4900x3200px

    come alternativa ho un fisso ryzen7 1700 con una nvidia gforce 1050ti 4Gb dedicati, ssd e 16Gb di ram, su linux a 64bit e l'altra partizione dello stesso pc con win7 a 64 bit, non ho provato perché non uso internet sulla partizione di win7 e non penso di poter usare la versione di prova di 14 giorni senza internet.

    quando farete una release per Linux vi manderò anche un abbraccio

    intanto Vi ringrazio

    un saluto
    Alessandro


  • #2
    allego qualche immagine, la prima mostra i punti di ripresa, la seconda lo strumento di valutazione immagine, la terza il risultato finale alla massima risoluzione dei dettagli

    Comment


    • #3
      Ciao Alessandro,

      grazie delle belle parole, di seguito le mie risposte:

      Originally posted by ale47p View Post
      Mi chiedevo come mai viene consigliato di usare ottiche grandangolari/normali invece che per esempio un 100mm macro, che ha pochissima distorsione ed una risolvenza da paura.
      Ho letto che la distorsione della lente aiuta il software nella ricostruzione.
      Chiedevo a voi se vale la pena (per una texture molto piccola ad esempio) provare a fare qualche prova con il 100mm macro sulla aps-c...
      puoi liberamente usare qualsiasi lente purche' pinhole (quindi niente fisheye e niente sferiche - anche se in realtà queste ultime possono essere decomposte in pinhole) purchè il soggetto sia a fuoco e ci sia overlap tra i vari scatti.

      Originally posted by ale47p View Post
      Il modello è venuto oltre 10 volte più piccolo dell'oggetto reale, immaginavo che non venisse in scala, posso "tarare" il software prima di dargli in pasto le foto? in ogni caso poi con un calibro ne verificherei le dimensioni...
      Ogni modello è inizialmente in una scala e rotazione arbitraria. Devi essere tu a riportare tutto nel tuo riferimento (sia esso locale o geografico). Il modo piu' preciso e' tramite punti di controllo (disponibili nella pro e aeria). Puoi comunque riscalare anche nella lite e nella free seguento questi passi http://support.3dflow.net/support/so...-free-and-lite


      Originally posted by ale47p View Post
      è possibile con la versione Lite esportare solo la nuvola di punti ascii o binario per far creare la mesh ad un altro software?
      No, la Lite esporta solo mesh e mesh con texture. Anche se fosse comunque, non te lo consiglierei, poichè Zephyr utilizza anche ulteriori informazioni proveniente dalle camere (visibilità, occlusione, ecc) per restituire una mesh migliore rispetto a un semplice algoritmo di meshing. Se proprio vuoi intraprendere questa strada, puoi comunque esportare una mesh, trasformarla in nuvola di punti e procedere, ma avrai comunque risultati peggiori



      Originally posted by ale47p View Post
      l'indice di "qualità immagine" dal software viene indicata con un punteggio di 0.05 (poche, circa 6 su un centinaio) fino a scendere a 0.01 per per prime 50, e poi ancora meno le ultime 50...fanno tanto pena?
      per motivi di privacy non posso pubblicarle qui nel forum purtroppo. posso inviarle all'assistenza nel caso servisse.
      puoi inviarle a support@3dflow.net , considera che sono indici arbitrari, ma è impossibile giudicare senza vederle, mi spiace!


      Originally posted by ale47p View Post
      il modello se è di gomma, liscio, bianco, va sempre spruzzato con una di quelle bombolette opacizzanti apposite?
      io non l'ho fatto, è per quello che l'stl mi è venuto tutto brutto a gobbe/brufoloso?
      Si, se la superficie non è texturizzata è normale ottenere superfici come dici tu. Ti conviene quindi sporcare la superficie o in alternativa, usare dei proiettori ( https://www.youtube.com/watch?v=E06kgYBftak a 4:20 )


      Originally posted by ale47p View Post
      il file del progetto.zep si tiene dentro sempre tutto? il progetto di prova con 99 foto, una nuvola di punti ed una mesh è mezzo giga...
      si, Zephyr ha bisogno di tutte le informazioni per eseguire i suoi calcoli. Le uniche cose che non vengono salvate sono le foto, che vengono solo memorizzati come path locali.



      Originally posted by ale47p View Post
      la cpu è stata al 100% praticamente per tutta la fase di elaborazione foto/generazione della nuvola di punti, dove la scheda video ha lavorato poco o niente, poi nella creazione della mesh a tratti la cpu al 100% alternata a qualche picco intorno al 20-30% della scheda video. pe quanto riguarda la ram sinceramente non ci ho fatto caso

      mi chiedevo se il comportamento fosse normale, e se sia normale che con tutti i parametri su "default" ci voglia circa un quarto d'ora per arrivare ad esportare la mesh.
      con le stesse foto, utilizzando le impostazioni per "oggetti vicini" ed i dettagli al massimo ci possa volere anche quasi un'ora.
      parliamo di 99 jpeg non elaborati da 6Mb circa ciascuno, circa 4900x3200px
      Assicurati di avere i driver aggiornati e di non utilizzare il monitor risorse di windows, ma quello interno di zephyr o uno di terze parti. Quello di windows non funziona proprio benissimo per il carico GPU. Sulle tempistiche dipende da tante cose ma direi di si.


      Originally posted by ale47p View Post
      quando farete una release per Linux vi manderò anche un abbraccio
      Flowengine (il nostro SDK) funziona anche su linux zephyr purtroppo ha anche delle dipendenze windows only (in particolare per i moduli laser scanner, che hanno SDK forniti dai produttori) ma temo che non vedremo una release linux nel breve o medio periodo. Dovrebbe funzionare con Wine però, anche se è parecchio che non provo https://appdb.winehq.org/objectManag...tion&iId=18035

      Comment


      • #4
        Originally posted by Andrea Alessi View Post
        puoi liberamente usare qualsiasi lente purche' pinhole (quindi niente fisheye e niente sferiche - anche se in realtà queste ultime possono essere decomposte in pinhole) purchè il soggetto sia a fuoco e ci sia overlap tra i vari scatti.
        ottimo, allora provo con il macro

        Originally posted by Andrea Alessi View Post
        Ogni modello è inizialmente in una scala e rotazione arbitraria. Devi essere tu a riportare tutto nel tuo riferimento (sia esso locale o geografico). Il modo piu' preciso e' tramite punti di controllo (disponibili nella pro e aeria). Puoi comunque riscalare anche nella lite e nella free seguento questi passi http://support.3dflow.net/support/so...-free-and-lite
        purtroppo le altre versioni sono fuori budget. se la riscalatura della lite equivale a scalare brutalmente la mesh nel mio cad, penso che a questo punto non ne valga la pena.

        Originally posted by Andrea Alessi View Post
        No, la Lite esporta solo mesh e mesh con texture. Anche se fosse comunque, non te lo consiglierei, poichè Zephyr utilizza anche ulteriori informazioni proveniente dalle camere (visibilità, occlusione, ecc) per restituire una mesh migliore rispetto a un semplice algoritmo di meshing. Se proprio vuoi intraprendere questa strada, puoi comunque esportare una mesh, trasformarla in nuvola di punti e procedere, ma avrai comunque risultati peggiori
        ok, immaginavo

        Originally posted by Andrea Alessi View Post
        puoi inviarle a support@3dflow.net , considera che sono indici arbitrari, ma è impossibile giudicare senza vederle, mi spiace!
        prima riprovo con il macro e con il prossimo trick...

        Originally posted by Andrea Alessi View Post
        Si, se la superficie non è texturizzata è normale ottenere superfici come dici tu. Ti conviene quindi sporcare la superficie o in alternativa, usare dei proiettori ( https://www.youtube.com/watch?v=E06kgYBftak a 4:20 )
        non avevo capito il trick del proiettore, adesso mi è molto più chiaro...grande!

        Originally posted by Andrea Alessi View Post
        si, Zephyr ha bisogno di tutte le informazioni per eseguire i suoi calcoli. Le uniche cose che non vengono salvate sono le foto, che vengono solo memorizzati come path locali.
        ok

        Originally posted by Andrea Alessi View Post
        Assicurati di avere i driver aggiornati e di non utilizzare il monitor risorse di windows, ma quello interno di zephyr o uno di terze parti. Quello di windows non funziona proprio benissimo per il carico GPU. Sulle tempistiche dipende da tante cose ma direi di si.
        ok

        Originally posted by Andrea Alessi View Post
        Flowengine (il nostro SDK) funziona anche su linux zephyr purtroppo ha anche delle dipendenze windows only (in particolare per i moduli laser scanner, che hanno SDK forniti dai produttori) ma temo che non vedremo una release linux nel breve o medio periodo. Dovrebbe funzionare con Wine però, anche se è parecchio che non provo https://appdb.winehq.org/objectManag...tion&iId=18035
        io uso linux per tutto (wine in questi ultimi anni so che ha fatto passi da gigante, ma per dirti saranno 5 anni che non lo installo più) tranne che per il cad...quindi no problem

        grazie mille della risposta dettagliata, oggi pomeriggio in qualche modo devo trovare il tempo di fare altre prove, che poi mi scade la trial!

        un saluto
        Alessandro

        Comment


        • #5
          Nessun problema figurati. Se ti serve un'estensione alla trial chiedi pure

          Comment


          • #6
            Buongiorno Andrea, ti aggiorno solo per dirti che ho acquistato la fotocamera nuova e che non ho ancora provato a fotografare di nuovo per dare in pasto le immagini al Vs software, in teoria domani mattina mi metto all'opera, il software mi piace e penso in ogni caso che lo acquisterò, visto che sei stato molto gentile e che posso permettermelo. devo assolutamente provare il trick del proiettore, anche perché non mi sono ancora procurato uno spray opacizzante.

            a proposito, hai qualche dritta riguardo allo spray? ce ne sono di diversi tipi? io so che esiste quello grigio (una polvere finissima) che usavo dove lavoravo prima, e poi ho visto online che ne esiste qualcuno apposta per fotografare, anche il vetro trasparente...posso mettere link?

            Comment


            • #7
              Ciao Ale47p,

              grazie delle belle parole!

              qualsiasi cosa che renda sporco il soggetto va benissimo. Considera che rendere completamente di colore uniforme qualcosa non ti aiuterà, più e' random (perlin noise) meglio è. Anche borotalco o farina possono andare benissimo

              L'idea generale è che devi rendere facile l'identificazione di un pixel al software. Se hai tanti pixel ravvicinati che sembrano uguali, il software farà più fatica. Sporcando il soggetto rendi il lavoro più facile.

              Quindi devi considerare

              - il materiale del soggetto: se è lucido, la luce crea dei riflessi che si muovono man mano che cambi il punto da cui prendi la fotografia. Motivo per cui opacizzare aiuta - considera che usare anche un filtro polarizzato sulla fotocamera può aiutare di molto

              - il colore dell'oggetto: se qualcosa non ha riflessi ma è comunque di colore uniforme, si presenta il problema di cui parlavo sopra. Quindi sporcarlo con cose random aiuta tantissimo.

              Alcuni oggetti sono sia lucidi che uniformi (plastica per esempio) e rendono le cose complicate. Poi come vuoi approcciarti al problema e con che materiali, è indifferente, conta il risultato

              Comment


              • #8
                bene, grazie delle dritte Andrea

                era scaduta la trial ed ho provveduto all'acquisto della versione lite, ho trovato qualcosa su cui provare, con il 100 macro è andato tutto molto meglio, addirittura i risultati nella modalità di default mi hanno sorpreso, considerando che non ho curato lo sfondo...il software ha interpretato bene quindi le zone a fuoco e quelle fuori fuoco...mi ha riconosciuto 82 su 84 immagini

                poi finché mangio provo a dare in pasto le stesse foto alle impostazioni più serie

                è possibile aggiungere delle foto capovolgendo il soggetto per ricostruire la parte che appoggiava facendo fare poi la costruzione al software, oppure mi conviene esportare due stl ed allinearli con il cad?

                un saluto
                Alessandro

                Comment

                Working...
                X