Sony : un capteur optique pour smartphone capable de filmer en 1080p à 1 000 ips

Sony : un capteur optique pour smartphone capable de filmer en 1080p à 1 000 ips

Les Slow Mo Guys ont de la marge

Avatar de l'auteur
Sébastien Gavois

Publié dans

Société numérique

08/02/2017 3 minutes
81

Sony : un capteur optique pour smartphone capable de filmer en 1080p à 1 000 ips

Sony dévoile une caméra pour smartphone capable d'enregistrer des photos avec un temps de pose de 1/120e de seconde seulement et de réaliser des vidéos en 1080p jusqu'à 1 000 ips. Pour cela, elle intègre 125 Mo de DRAM.

Le MWC de Barcelone approche à grands pas, ouvrant ses portes le 27 février. Des fabricants commencent d'ores et déjà à annoncer leur conférence pour le dimanche 26 (LG, Lenovo et Samsung par exemple), tandis que d'autres préparent le terrain avec des annonces en amont. C'est le cas de Sony et de son nouveau capteur photo pour mobile (il ne porte pas de nom/référence pour le moment).

Un temps de pose très faible qui permet de limiter les déformations

Celui-ci est capable de capturer des images avec un temps de pose de 1/120e de seconde, contre 1/30e de seconde pour l'IMX318 annoncé l'année dernière. Pour rappel, une durée d'exposition plus courte permet d'éviter les déformations de type « rolling shutter ». Il s'agit d'un effet que l'on retrouve sur des scènes où un objet se déplace rapidement : comme l'image est enregistrée ligne par ligne, le mouvement peut entrainer une déformation de l'image plus ou moins visible.

Voici un exemple (proposé par Sony) en images avec une photo à 1/30e de seconde, puis à 1/120e. Dans la première, l'avant du train est légèrement déformé : 

Sony capteur photo DRAM

La mémoire DRAM à la rescousse 

Le problème, explique Sony, c'est que pour arriver à une telle vitesse, il faut que le stockage puisse suivre la cadence, ce qui n'est pas toujours le cas des smartphones pour le moment. Pour pallier ce problème, le constructeur intègre une couche de DRAM (Dynamic Random Access Memory).

Cette mémoire sert de cache afin de stocker rapidement les données issues du capteur CMOS, avant de les transmettre au circuit de traitement de l'image. Sony précise que 125 Mo de DRAM sont présents, mais n'indique pas les débits supportés. Il assure par contre que cela permet d'enregistrer une image de 19,3 millions de pixels avec un temps de pose de 1/120e de seconde.

Sony capteur photo DRAM

Des vidéos en 1080p jusqu'à 1 000 ips

Autre conséquence de la présence de la DRAM, la caméra peut enregistrer des vidéos en 1080p jusqu' à... 1 000 images par seconde (excusez du peu). À titre de comparaison, un iPhone 7 d'Apple ou un Pixel de Google peut monter jusqu'à 120 ips en 1080p et 240 ips en 720p.

Comme pour la photo, le principe reste le même : la DRAM fait office de cache pour absorber l'important flux de données. Sony explique qu'il est possible de configurer le capteur pour qu'il « détecte automatiquement un mouvement brusque du sujet et lance une prise de vue à grande vitesse ». 

Pour le moment, aucun tarif ou date de disponibilité n'est précisé. Nous tâcherons d'en apprendre davantage durant le MWC. Cette année encore, nous serons en effet sur place.

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Un temps de pose très faible qui permet de limiter les déformations

La mémoire DRAM à la rescousse 

Des vidéos en 1080p jusqu'à 1 000 ips

Fermer

Commentaires (81)


haaaaa c’est donc ça ! l’effet “rolling shutter” !



Jusqu’ à présent je pensais que les objets se déformaient à cause de leur propre vitesse <img data-src=" />



Impressionnant la balle qui se transforme en disque lors de l’impact <img data-src=" />


Ça sent un nouveau Smartphone Sony type Xperia Xperformance 2 ou alors, Xperia Z6 (ou Z7).


Idem, je comprends mieux cette histoire de rolling shutter, merci de l’explication


Je pense que l’article loupe un truc, car comment pourrait-on filmer à 1000 images par seconde avec un temps de pose par image de 1/120e de seconde : dans le meilleur des cas, ça permet 120 images par seconde.



Par ailleurs, l’obturateur d’une caméra en plein soleil est à bien moins que 1/120e de seconde (plutôt 1/1000e), sinon l’image serait surexposée, et on voit cet effet qui rend la vidéo légèrement saccadée du fait de l’absence de flou de bougé.








sentryman a écrit :



haaaaa c’est donc ça ! l’effet “rolling shutter” !



Jusqu’ à présent je pensais que les objets se déformaient à cause de leur propre vitesse <img data-src=" />



Impressionnant la balle qui se transforme en disque lors de l’impact <img data-src=" />





Bon, avec des pales d’avions qui ont cette gueule, c’est de la putain de déformation. (sinon, l’explication est ici)



edit : gamin, devant une télé à tube cathodique, je m’amusais à faire passer des règles devant mes yeux pour la voir toute tordu.



merci Sony pour l’avancée de fou mais moi je veux juste l’API Camera2 en mode FULL sur mon xperia !


Oui, je suis pas sur non plus.

Peut être parce qu’il filme en moins bonne qualité qu’il ne photographie et du coup, il fait encore plus d’images par seconde ?&nbsp;

Je dis peut être une connerie.


Tu arrêtes avec tes calculs du niveau primaire pour contrarier l’auteur de l’article ! <img data-src=" />



Ne fais pas ton décodeur !



Plus sérieusement : bien vu.



Autre question intéressante : combien de temps peut-on filmer à cette vitesse, sachant qu’il faudra bien vider la DRAM embarquée dans celle du smartphone avec une bande passante plus faible.

Là, on arrive à un problème typique de baignoire qui se vide et se remplit en même temps avec des vitesses différentes. Toujours du niveau primaire en fait. Quand est-ce que ça déborde ?


C’est bien beau 1080p en 1000ips mais tu stockes ça comment, tu trimballes un disque dur wifi ??








fred42 a écrit :



Tu arrêtes avec tes calculs du niveau primaire pour contrarier l’auteur de l’article ! <img data-src=" />



Ne fais pas ton décodeur !



Plus sérieusement : bien vu.



Autre question intéressante : combien de temps peut-on filmer à cette vitesse, sachant qu’il faudra bien vider la DRAM embarquée dans celle du smartphone avec une bande passante plus faible.

Là, on arrive à un problème typique de baignoire qui se vide et se remplit en même temps avec des vitesses différentes. Toujours du niveau primaire en fait. Quand est-ce que ça déborde ?





C’est le seul point qui m’interrogeait également. <img data-src=" />



il manque l’info du nombre de pixels pour les photos.

Pour du 1080p c’est 2M de pixels. Si tu fais le ratio 1000 -&gt; 120 on ait du x8

Donc en photo avec une Image de 16M de pixels ca tient la route.


je pense que c’est ça.

si tu peux faire 19,3 millions de pixels en 1/120e de seconde, tu dois pouvoir faire juste 2 millions de pixels en 1/1000e de seconde ^^


Sony a quand même choisi le plus bel environnement possible pour montrer les capacités du capteur. Belle vidéo.


En fait, en relisant, il s’agit de 2 chose différentes :

photos avec exposition à 1120 s

film jusqu’à 1000 ips avec forcément une exposition plus faible encore et donc sûrement un problème que qualité comme indiqué plus haut.








Helden a écrit :



C’est bien beau 1080p en 1000ips mais tu stockes ça comment, tu trimballes un disque dur wifi ??





Pas besoin : la batterie du tél. sera vide au bout de 8 secondes et l’appareil se sera mis en sécurité après avoir atteint 98°C <img data-src=" />



Une fois compressée, le débit nécessaire devient moins important.

Je ne pense pas qu’on s’amuse a enregistrer des vidéo en RAW.








alf a écrit :



Une fois compressée, le débit nécessaire devient moins important.

Je ne pense pas qu’on s’amuse a enregistrer des vidéo en RAW.





petit joueur…. <img data-src=" />



Là, on se heurte à la vitesse de compression. Je ne suis pas sûr que l’on sache compresser 1000 images par seconde en 1080p en temps réel, dans un circuit pour smartphone.








alf a écrit :



Une fois compressée, le débit nécessaire devient moins important.

Je ne pense pas qu’on s’amuse a enregistrer des vidéo en RAW.





C’est connu, la compression temps-réel ne charge pas le CPU ni la RAM <img data-src=" />









zethoun a écrit :



petit joueur…. <img data-src=" />





EXTENTED-RAW (RAW mais en mieux) <img data-src=" />



Pour rallonger la capture en mode slow motion ils peuvent ensuite copier le contenu de la DRAM dans la mémoire vive du tel, ça donnera une utilité aux 6Go que l’on trouve sur les tel haut de gamme récents&nbsp;<img data-src=" />








OlivierJ a écrit :



Je pense que l’article loupe un truc, car comment pourrait-on filmer à 1000 images par seconde avec un temps de pose par image de 1/120e de seconde : dans le meilleur des cas, ça permet 120 images par seconde.



Par ailleurs, l’obturateur d’une caméra en plein soleil est à bien moins que 1/120e de seconde (plutôt 1/1000e), sinon l’image serait surexposée, et on voit cet effet qui rend la vidéo légèrement saccadée du fait de l’absence de flou de bougé.





Je pense que tu loupes un truc… Le problème qui est compensé par la RAM, c’est le flux de données

donc “19,3 millions de pixels en 1/120e de seconde” c’est le flux max…

1080p c’est environ 2 millions de pixels soit 9 fois moins tu peux alors augmenter la cadence à 9 fois plus…

9x120= 1000 en gros…



&nbsp;



&nbsp;



On peux filmer donc filmer du 1080 a 1000 ips, mais que par lots de 9 images par seconde donc des ultra courts métrages de 75 msec :)

Après la mémoire du tel ne suis pas; J’ai bon ?



Ca représente une vidéo qui pèse 1,6 go/sec (jamais atteins a cause de la saturation DRAM-&gt; flash)


Ce qui m’étonne le plus, c’est qu’on utilise un truc aussi perfectible à la base que d’enregistrer lentement ligne par ligne…

Mais ce n’était peut-être le cas que pour les capteurs miniaturisés des téléphones ?








Helden a écrit :



C’est bien beau 1080p en 1000ips mais tu stockes ça comment, tu trimballes un disque dur wifi ??





C’est ultra compressable, sachant qu’à cette vitesse les images suivant ton image clef sont toutes très similaires. Et comme l’ont rappelé d’autres, pour des raisons de limitations technique il y a fort à parier que la durée d’enregistrement à cette vitesse soit limitée.





OlivierJ a écrit :





Pas forcément … si tu veux garder un flou de bougé, tu peux aussi fermer ton diaph (mais tu perd en profondeur de champ)&nbsp;et surtout tu peux utiliser des filtres ND pour récupérer des diaph.&nbsp;

Ce qui rend la vidéo légèrement saccadée&nbsp;ici c’est surtout que le playback est fait à 15i/s&nbsp;(c’est écrit dans le coin) ;)



Tu ferais comment ?

Attention, si tu as une meilleure solution industrialisable, elle doit valoir pas mal d’argent : pose vite un brevet avant de répondre.



Il faut bien copier les pixels en DRAM et la bande passante n’étant pas illimitée, cela se fait en un “certain temps”. C’est ce temps qui fait que l’on peut voir des déformations sur un objet bougeant vite.








fred42 a écrit :



Tu arrêtes avec tes calculs du niveau primaire pour contrarier l’auteur de l’article ! <img data-src=" />

Ne fais pas ton décodeur !





<img data-src=" />







fred42 a écrit :



Autre question intéressante : combien de temps peut-on filmer à cette vitesse, sachant qu’il faudra bien vider la DRAM embarquée dans celle du smartphone avec une bande passante plus faible.





Déjà la vidéo est compressée, et ensuite je suppose en qualité inférieure à quand on filme à 25 images/seconde. Ça reste un débit 40 fois (par rapport à 25 i/s) supérieur ce qui paraît effectivement beaucoup pour nos cartes mémoires ; je pense qu’une partie de l’explication c’est qu’à 1000 i/s il y a très peu de différence entre 2 images, et donc que la compression fonctionne particulièrement bien.







alf a écrit :



il manque l’info du nombre de pixels pour les photos. Pour du 1080p c’est 2M de pixels. Si tu fais le ratio 1000 -&gt; 120 on ait du x8. Donc en photo avec une Image de 16M de pixels ca tient la route.









zethoun a écrit :



je pense que c’est ça. si tu peux faire 19,3 millions de pixels en 1/120e de seconde, tu dois pouvoir faire juste 2 millions de pixels en 1/1000e de seconde ^^





Vous êtes sérieux là ?







fred42 a écrit :



En fait, en relisant, il s’agit de 2 chose différentes :

photos avec exposition à 1120 s

film jusqu’à 1000 ips avec forcément une exposition plus faible encore et donc sûrement un problème que qualité comme indiqué plus haut.





Non les photos sont faites facilement à des vitesses supérieures, jusqu’au 11000 probablement, sur un mobile standard ; tu peux le vérifier dans les données EXIF par exemple.









fred42 a écrit :



Là, on se heurte à la vitesse de compression. Je ne suis pas sûr que l’on sache compresser 1000 images par seconde en 1080p en temps réel, dans un circuit pour smartphone.





Ça paraît élevé, mais avec des circuits dédiés ça doit pouvoir se faire à coût abordable (surtout quand on voit ce qui est disponible en pro, genre les caméras qu’ont les SlowMo Guys).









ArchangeBlandin a écrit :



Ce qui m’étonne le plus, c’est qu’on utilise un truc aussi perfectible à la base que d’enregistrer lentement ligne par ligne…

Mais ce n’était peut-être le cas que pour les capteurs miniaturisés des téléphones ?





C’est mal vulgarisé par Sebastien … Le Rolling Shutter ça existe même sur les films analogiques, c’est le fait de déplacer ton obturateur de manière linéaire devant ce que tu exposes (que&nbsp;ce soit du film ou un capteur numérique) … Rien à voir en réalité avec un enregistrement ligne par ligne, en tout cas ce n’est pas le principal problème.

&nbsp;



fred42 a écrit :



&nbsp;

Il faut bien copier les pixels en DRAM et la bande passante n’étant pas illimitée, cela se fait en un “certain temps”. C’est ce temps qui fait que l’on peut voir des déformations sur un objet bougeant vite.

&nbsp;



Nop. Le problème existe aussi&nbsp;avec le bon vieux film à exposer à la lumière … Si ça s’appel rolling SHUTTER c’est justement parce que c’est à la base un problème de SHUTTER (Obturateur).









zart a écrit :



Je pense que tu loupes un truc… Le problème qui est compensé par la RAM, c’est le flux de données

donc “19,3 millions de pixels en 1/120e de seconde” c’est le flux max…

1080p c’est environ 2 millions de pixels soit 9 fois moins tu peux alors augmenter la cadence à 9 fois plus…

9x120= 1000 en gros.





Explique-moi comment en prenant une image tous les 1/120e de seconde (c’est la vitesse d’obturation d’après l’article), tu peux en avoir 1000 par seconde.

 





Grocell a écrit :



C’est ultra compressable, sachant qu’à cette vitesse les images suivant ton image clef sont toutes très similaires.





On est d’accord . NB : compressible







Grocell a écrit :



Pas forcément … si tu veux garder un flou de bougé, tu peux aussi fermer ton diaph (mais tu perd en profondeur de champ) et surtout tu peux utiliser des filtres ND pour récupérer des diaph.





Il me semble que si tu fermes ton diaph, tu gagnes en profondeur de champ (elle augmente). Cela dit avec un capteur de mobile riquiqui, tu as une grande profondeur de champ par défaut.







Grocell a écrit :



Ce qui rend la vidéo légèrement saccadée ici c’est surtout que le playback est fait à 15i/s (c’est écrit dans le coin) ;)





Tu parles de quelle vidéo ?









OlivierJ a écrit :



Il me semble que si tu fermes ton diaph, tu gagnes en profondeur de champ (elle augmente). Cela dit avec un capteur de mobile riquiqui, tu as une grande profondeur de champ par défaut.&nbsp;





J’ai la mauvaise habitude d’utiliser “perdre” ou “gagner” de la profondeur de champ&nbsp;avec un lexique “qualitatif” donc à l’opposé de ce que c’est censé vouloir dire ;)&nbsp;

&nbsp;

Quand tu fermes ton diaph tu gagnes en netteté sur tes plans … donc oui, ta profondeur de champ augmente. (Mais tu perds ton flou d’arrière plan, donc c’est moins beau ;) )

&nbsp;





OlivierJ a écrit :



Tu parles de quelle vidéo ?



Celle en bas de la news …









Grocell a écrit :



Nop. Le problème existe aussi avec le bon vieux film à exposer à la lumière … Si ça s’appel rolling SHUTTER c’est justement parce que c’est à la base un problème de SHUTTER (Obturateur).





Sauf qu’il n’y a pas d’obturateur (physique) ici, on a donc repris une appellation ancienne parce que cela a le même résultat mais pour une cause physique différente.



Il existe des capteurs “global shutter” qui capturent toute l’image en même temps (sûrement par mémorisation en parallèle de tous les pixels (ça fait un sacré bus pour transférer tout ça d’un coup !)



Si on veut des infos sur le phénomène, il faut lire l’article Wikipedia en anglais, celui en français étant, comment dire, très indigent.









Grocell a écrit :



C’est mal vulgarisé par Sebastien … Le Rolling Shutter ça existe même sur les films analogiques, c’est le fait de déplacer ton obturateur de manière linéaire devant ce que tu exposes (que ce soit du film ou un capteur numérique) … Rien à voir en réalité avec un enregistrement ligne par ligne, en tout cas ce n’est pas le principal problème.





Le rolling shutter en argentique, c’est surtout à haute vitesse, quand les 2 lamelles de l’obturateur ne laissent passer qu’une fente de lumière, sinon au 1/60e il n’y a pas cet effet puisque l’exposition du film se fait d’un seul coup.

Le rolling shutter en numérique est surtout dû à la façon dont est lue l’image qui se forme sur le capteur, et c’est toujours par balayage, ligne par ligne. Entre le moment où récupère les valeurs du haut du capteur et celui où c’est le bas de capteur, si l’objet filmé est en mouvement rapide il aura eu le temps de se déplacer.







Grocell a écrit :



Nop. Le problème existe aussi





En fait c’est Nope (pendant de “Yep”), on le lit même dans du Lucky Luke ;-) .

(“nop” c’est une instruction assembleur)

<img data-src=" />









fred42 a écrit :



Sauf qu’il n’y a pas d’obturateur (physique) ici, on a donc repris une appellation ancienne parce que cela a le même résultat mais pour une cause physique différente.



Il existe des capteurs “global shutter” qui capturent toute l’image en même temps (sûrement par mémorisation en parallèle de tous les pixels (ça fait un sacré bus pour transférer tout ça d’un coup !)





Si je ne dis pas de bêtise, sur un appareil photo numérique reflex, il y a un obturateur classique (qui expose brièvement le capteur), et donc ensuite on a la possibilité de récupérer tranquillement ligne par ligne le contenu des cellules, sans qu’elles ne puissent changer (puisque obturateur refermé).

En revanche sur un mobile, je ne sais pas s’il y a un obturateur mécanique, je ne crois pas (en tous cas pas de bruit d’obturation, ce qui est un signe).



PS : il faudrait compléter la page Wikipedia en français avec les éléments de la page en anglais, en effet.



J’ai voulu éditer mon post au dessus, mais OlivierJ a répondu trop vite et mon edit est pas passé …

Mon explication du Rolling shutter est aussi imprécise, car les obturateurs des smartphones sont tous systématiquement numériques … c’est à dire qu’effectivement le capteur enregistre ligne par ligne avec les capteurs APS&nbsp;… MAIS on sait faire différemment, avec les capteurs CCD dont les cellules “freezent” leur état toutes en même temps jusqu’à être lues : éliminant l’effet de Rolling Shutter …



Mais suivant le matos, un capteur numérique peux très bien être chargé de réccupérer la lumière derrière un obturateur mécanique … d’où l’imprécision de ma réponse, je voulais surtout dire que l’effet de Rolling shutter n’est pas du UNIQUEMENT aux capteurs APS.








OlivierJ a écrit :



Si je ne dis pas de bêtise, sur un appareil photo numérique reflex, il y a un obturateur classique (qui expose brièvement le capteur), et donc ensuite on a la possibilité de récupérer tranquillement ligne par ligne le contenu des cellules, sans qu’elles ne puissent changer (puisque obturateur refermé).

En revanche sur un mobile, je ne sais pas s’il y a un obturateur mécanique, je ne crois pas (en tous cas pas de bruit d’obturation, ce qui est un signe).



PS : il faudrait compléter la page Wikipedia en français avec les éléments de la page en anglais, en effet.





Voilà, c’est exactement ça.&nbsp;

Sauf qu’en fait il existe aussi du matos plus “léger” que les reflex qui utilisent des obturateurs mécaniques … C’est nottament le cas de la caméra du&nbsp;drone Phantom 4 Pro. Petite précision pour dire qu’un obturateur mécanique n’est pas nécéssairement réservé à un reflexe ;)









Grocell a écrit :



Voilà, c’est exactement ça. 

Sauf qu’en fait il existe aussi du matos plus “léger” que les reflex qui utilisent des obturateurs mécaniques … C’est nottament le cas de la caméra du drone Phantom 4 Pro. Petite précision pour dire qu’un obturateur mécanique n’est pas nécéssairement réservé à un reflexe ;)







Ça m’a étonnée, j’ai été voir, effectivement ils parle d’un “mecanical shutter” sur le site. Mais ça sert à quoi sur un truc qui à priori ne sert qu’à filmer ?









Cashiderme a écrit :



Ça m’a étonnée, j’ai été voir, effectivement ils parle d’un “mecanical shutter” sur le site. Mais ça sert à quoi sur un truc qui à priori ne sert qu’à filmer ?





Les caméras à film en tous cas ont un obturateur mécanique (obligé car le film se déplace entre 2 prises de vue et reste impressionnable). Et je ne sais pas ce qu’il en est pour les caméras numériques de cinéma (au sens “pro”), si elles en ont un pour éviter les effets indésirables du balayage.









Grocell a écrit :



c’est à dire qu’effectivement le capteur enregistre ligne par ligne avec les capteurs APS…

[…]je voulais surtout dire que l’effet de Rolling shutter n’est pas du UNIQUEMENT aux capteurs APS.





Pour chipoter : il ne s’agit pas tant des capteurs APS, qui sont ceux de ~14x22 mm qu’on trouve sur le moyen de gamme des reflex numériques (et parfois certains compacts haut de gamme), que des capteurs numériques en général.







Grocell a écrit :



Sauf qu’en fait il existe aussi du matos plus “léger” que les reflex qui utilisent des obturateurs mécaniques… […] Petite précision pour dire qu’un obturateur mécanique n’est pas nécéssairement réservé à un reflexe ;)





Tout à fait, on peut mentionner aussi une partie des appareils photos compacts (on entend le bruit de l’obturateur).



@SteveAustin








OlivierJ a écrit :



Pour chipoter : il ne s’agit pas tant des capteurs APS, qui sont ceux de ~14x22 mm qu’on trouve sur le moyen de gamme des reflex numériques (et parfois certains compacts haut de gamme), que des capteurs numériques en général.&nbsp;





Ne pas confondre APS qui est un type de capteur avec APS-C qui est un format ;)

<img data-src=" />









OlivierJ a écrit :



Explique-moi comment en prenant une image tous les 1/120e de seconde (c’est la vitesse d’obturation d’après l’article), tu peux en avoir 1000 par seconde. &nbsp;



&nbsp;

Tu fais une fixette sur le temps de pause comme si c’était la limite du capteur. Ce temps de pause n’est indiqué que pour donner une idée du débit supporté par la DRAM:



“Sony précise que 125 Mo de DRAM sont présents, mais n’indique pas les

débits supportés. Il assure par contre que cela permet d’enregistrer une

image de 19,3 millions de pixels avec un temps de pose de 1/120e de

seconde.”



&nbsp;Pour comparaison une version antérieur du capteur qui équipe les Sony HDR-CX520





  • Capteur CMOS Exmor R





  • Vitesse d’obturation maximale Mode auto : 150 -11000; Mode scène : 16 - 11000











OlivierJ a écrit :



Les caméras à film en tous cas ont un obturateur mécanique (obligé car le film se déplace entre 2 prises de vue et reste impressionnable). Et je ne sais pas ce qu’il en est pour les caméras numériques de cinéma (au sens “pro”), si elles en ont un pour éviter les effets indésirables du balayage.





C’est exactement le but : Se débarrasser du rolling-shutter. &nbsp;



Le pire c’est que tu te réponds à toi même avec cette phrase…

&nbsp;



Le rolling shutter en numérique est surtout dû à la façon dont est lue l’image qui se forme sur le capteur, et c’est toujours par balayage, ligne par ligne. Entre le moment où récupère les valeurs du haut du capteur et celui où c’est le bas de capteur, si l’objet filmé est en mouvement rapide il aura eu le temps de se déplacer.



Pour récupérer 19,3 millions de pixels il faut 1/120eme de secondes

Pour en récupérer 2 millions, il t’en faut 9 fois moins… soit 1/1000eme de seconde



C’est le transfert de données qui limite la vitesse… Ce n’est pas la vitesse max d’un photosite








OlivierJ a écrit :



Les caméras à film en tous cas ont un obturateur mécanique (obligé car le film se déplace entre 2 prises de vue et reste impressionnable). Et je ne sais pas ce qu’il en est pour les caméras numériques de cinéma (au sens “pro”), si elles en ont un pour éviter les effets indésirables du balayage.







Les caméra “à film” ont un obturateur rotatif (qui ne rentrerait pas dans ce petit boitier), pas autant sujet à l’usure mécanique que les obturateurs de reflex. A titre d’exemple, l’obturateur de l’EOS 5D (donc déjà relativement haut de gamme) n’est plus garanti “précis” après 100.000 prise de vues. Pour les premiers prix ça tourne plutot autours des 20.000. Donc pas du tout adapté à la vidéo. (au passage, quand on est amené à acheter un SLR d’occasion, toujours savoir comment vérifier le nombre de déclenchements. S’il est trop important, passer son chemin)

J’ai jamais entendu parler d’obturateurs mecaniques sur les cameras numériques, les quelques unes que j’ai eu entre les mains n’en avait pas en tout cas.









Grocell a écrit :



Ne pas confondre APS qui est un type de capteur avec APS-C qui est un format ;)





Je ne te suis pas, c’est quoi comme type de capteur alors, APS ? Pour moi APS c’est juste un raccourci pour APS-C parce que cette taille est répandue et a été choisie par la plupart des fabricants pour leur moyen de gamme.







zart a écrit :



Tu fais une fixette sur le temps de pause comme si c’était la limite du capteur. Ce temps de pause n’est indiqué que pour donner une idée du débit supporté par la DRAM:



“Sony précise que 125 Mo de DRAM sont présents, mais n’indique pas les débits supportés. Il assure par contre que cela permet d’enregistrer une image de 19,3 millions de pixels avec un temps de pose de 1/120e de seconde.”



Pour comparaison une version antérieur du capteur qui équipe les Sony HDR-CX520




  • Capteur CMOS Exmor R





  • Vitesse d’obturation maximale Mode auto : 150 -11000; Mode scène : 16 - 11000





    Ce n’est pas une fixette, c’est une interrogation qui saute aux yeux normalement, quand on lit l’article.

    Sur la capacité “d’enregistrer une image de 19,3 millions de pixels avec un temps de pose de 1120”, je ne sais pas comment l’interpréter, parce que ça n’est pas intéressant, on ne filme pas à 120 i/s à 19 MP, et puis quand on a pris un cliché au 1/120e, on n’a pas besoin de qu’il soit stocké ensuite en 1/120e de seconde.



    Pour la vitesse d’obturation maximale, merci pour l’info, ça confirme ce que je disais sur le sujet.



La relativité restreinte est-elle bien prise en compte ?








zart a écrit :



Le pire c’est que tu te réponds à toi même avec cette phrase…

 Pour récupérer 19,3 millions de pixels il faut 1/120eme de secondes

Pour en récupérer 2 millions, il t’en faut 9 fois moins… soit 1/1000eme de seconde

C’est le transfert de données qui limite la vitesse… Ce n’est pas la vitesse max d’un photosite





Pour la multiplication ça va, mais c’est assez drôle que tu ne comprennes toujours pas l’histoire incohérente de l’obturation à 1/120e de seconde pour prendre des vidéo à 1000 i/s (chaque image étant donc exposée au maximum à 1/1000e de seconde, mais ensuite il faut lire le capteur et ce n’est pas instantané).



Par ailleurs, la multiplication n’a guère de sens, le capteur faisant toujours 19,3 MP quand on filme (au lieu de prendre une photo - d’ailleurs résolution débilement grande pour un mobile et pour 98 % des gens), il faut lire ces 19,3 MP avant de réduire la résolution aux 2 MP de la vidéo HD.







Cashiderme a écrit :



Les caméra “à film” ont un obturateur rotatif (qui ne rentrerait pas dans ce petit boitier), pas autant sujet à l’usure mécanique que les obturateurs de reflex

J’ai jamais entendu parler d’obturateurs mecaniques sur les cameras numériques, les quelques unes que j’ai eu entre les mains n’en avait pas en tout cas.







  1. En effet, je n’avais pas précisé (à vrai dire je sais ça depuis petit, mais ce n’est pas le cas de tout le monde, même sur un site un peu geek)

  2. Pas faux, mais il me semble que les obturateurs tiennent quand même assez bien le coup, et plutôt sensiblement plus que les données constructeurs, qui donnent une valeur prudente.

  3. Sur les caméras numériques pro, j’aurais pensé qu’il y avait un obturateur rotatif aussi.









Cashiderme a écrit :



J’ai jamais entendu parler d’obturateurs mecaniques sur les cameras numériques, les quelques unes que j’ai eu entre les mains n’en avait pas en tout cas.





J’avoue que même sur les C100 pu C300 que j’utilise, il n’y a toujours qu’un obturateur numérique … En voyant cette nouveauté sur le Phantom 4 Pro je me suis dit que ça devait être le cas sur toutes les cam haute vitesse … en regardant chez RED je me rend compte que si c’est le cas chez eux, en tout cas ils ne le mettent pas en avant … Mais j’ai du mal à croire que ce soit un drone qui utilise cette techno en premier … ?









OlivierJ a écrit :



Je ne te suis pas, c’est quoi comme type de capteur alors, APS ? Pour moi APS c’est juste un raccourci pour APS-C parce que cette taille est répandue et a été choisie par la plupart des fabricants pour leur moyen de gamme.&nbsp;

&nbsp;



APS c’est “Active pixel sensor”

https://en.wikipedia.org/wiki/Active_pixel_sensor



APS-C c’est “Advanced Photo System type-C” (et y’a un type H)



Oui, c’est BIEN pute, mais c’est bel et bien deux choses qui n’ont rien à voir … Mais c’est ma petite vengeance pour le nopE. <img data-src=" />









iksarfighter a écrit :



La relativité restreinte est-elle bien prise en compte ?





Haha <img data-src=" />

Cela dit, l’inventeur de la relativité restreinte est aussi celui qui a eu un prix Nobel (en 1921) pour l’explication de l’effet photo-électrique (en 1905).



Les obturateurs tiennent longtemps, c’est juste qu’à partir d’un certain age, la précision de la vitesse d’obturation n’est plus garantie. Ça se voit surtout sur les vitesses très rapides, et pour un amateur meme très éclairé, ça ne se voit pas trop, jusqu’à un certain point. Pour des photographes pro, c’est une autre histoire, lais en studio c’est même pas encore ce genre de matos qui est utilisé en général.



D’ailleurs les caméras numériques pro ont en général des capteurs performants, peu ou pas sujets au rafraichissement par balayage (CMOS vs CCD vs nouveaux trucs, chacuns avec leurs qualités / défauts / coûts).








Grocell a écrit :



APS c’est “Active pixel sensor”

https://en.wikipedia.org/wiki/Active_pixel_sensor



APS-C c’est “Advanced Photo System type-C” (et y’a un type H)





Ah OK, pour le “APS” tout court. A vrai dire j’ignorais le terme, tout en connaissant le concept, qui pour moi concerne tous les capteurs du 21e siècle (hormis le CCD bien sûr).









OlivierJ a écrit :



Je ne te suis pas, c’est quoi comme type de capteur alors, APS ? Pour moi APS c’est juste un raccourci pour APS-C parce que cette taille est répandue et a été choisie par la plupart des fabricants pour leur moyen de gamme.







APS est le format de la pellicule argentique, APS-C est le format des capteurs numériques.

https://fr.wikipedia.org/wiki/APS-C

https://fr.wikipedia.org/wiki/Format_APS



EDIT : Grilled par Grocell, ça désigne aussi les capteurs CMOS. Quel foutoir <img data-src=" />









Cashiderme a écrit :



Pour des photographes pro, c’est une autre histoire, lais en studio c’est même pas encore ce genre de matos qui est utilisé en général.





En studio à cause de la synchro flash, la vitesse d’obturation est souvent limitée à 160 et dans le meilleur des cas au 1250, il me semble. Il y aussi les obturateurs centraux comme sur certains moyen-formats (qui permettent des synchro flash plus élevées que 1/60e, si je ne m’abuse).







Cashiderme a écrit :



D’ailleurs les caméras numériques pro ont en général des capteurs performants, peu ou pas sujets au rafraichissement par balayage (CMOS vs CCD vs nouveaux trucs, chacuns avec leurs qualités / défauts / coûts).





Je crois que ce qui est poussé dans ces capteurs, c’est toute l’électronique de récupération des informations, genre toutes les lignes sont récupérées en parallèle (ce qui coûte cher à faire) ainsi ça évite l’effet du balayage.

Je suppose que c’est comme ça que ça fonctionne sur les caméras ultra-rapides comme celles qu’ont les SlowMo Guys (des milliers d’images par seconde, d’ailleurs ils utilisent souvent le plein soleil ou à défaut des projecteurs puissants vu les temps de pose minuscules de chaque image).







renaud07 a écrit :



APS est le format de la pellicule argentique, APS-C est le format des capteurs numériques.

EDIT : Grilled par Grocell, ça désigne aussi les capteurs CMOS. Quel foutoir <img data-src=" />





C’est clair que c’est le foutoir, c’est pour ça que pour la plupart des gens, APS = APS-C = format du capteur (issu du format de la pellicule).



Non, ce n’est pas le cas. Il y a plusieurs solutions pour lire des images de définition plus faible que la définition native :

– “pixel binning” : on combine les pixels lors de la lecture en fonction de la matrice (Bayer), on évite le dématriçage : on divise donc la définition horizontalement et verticalement par deux ;

– “oversampling” : on lit l’intégralité, puis on redimensionne l’image, cela permet de réduire le moiré et le bruit ;

– “skipping” : on ne lit que certaines lignes/colonnes, ce qui est bien plus rapide, mais ne permet pas de réduire le bruit ou le moiré.



&nbsp;Généralement, on utilise le “skipping”. Peu de capteurs utilisent les deux autres méthodes.



&nbsp;D’après les indications de Sony, on peut être certain que c’est aussi le cas sur ce nouveau capteur. Lire l’intégralité du capteur en photo prend donc environ 1/120e de seconde, lire les 2 mégapixels suffisants pour du 1080p prend donc une milliseconde.



&nbsp;On peut noter que ce n’est pas le premier capteur de Sony qui intègre la RAM : ceux du RX100 m4/RX10 m2 et RX100 m5/RX10 m3 l’intègrent aussi, et permettent aussi d’enregistrer des vidéos 1080p à 1000fps.








Cashiderme a écrit :



D’ailleurs les caméras numériques pro ont en général des capteurs performants, peu ou pas sujets au rafraichissement par balayage (CMOS vs CCD vs nouveaux trucs, chacuns avec leurs qualités / défauts / coûts).







Même les caméras pros ont du rolling shutter et ceci d’autant plus que le capteur est gros. On peut en voir par exemple sur le film du hobbit filmé avec des RED. Et sur bien d’autres films si on y fait attention.



En pro il n’y a que black magic qui fabrique des CMOS global shutter.



Et j’ajouterais que le rolling shutter est aussi très gênant pour les vidéos d’orages (l’image est coupée en 2 avec une partie sombre et une autre claire. Par contre pas de problème en photo avec un obturateur mécanique. Pour ce genre de vidéos les caméras 3CCD sont indispensables, ou alors il faut s’acheter une black magic <img data-src=" />









illogict a écrit :



Non, ce n’est pas le cas. Il y a plusieurs solutions pour lire des images de définition plus faible que la définition native :

– “pixel binning” : on combine les pixels lors de la lecture en fonction de la matrice (Bayer), on évite le dématriçage : on divise donc la définition horizontalement et verticalement par deux ;

– “oversampling” : on lit l’intégralité, puis on redimensionne l’image, cela permet de réduire le moiré et le bruit ;

– “skipping” : on ne lit que certaines lignes/colonnes, ce qui est bien plus rapide, mais ne permet pas de réduire le bruit ou le moiré.



Généralement, on utilise le “skipping”. Peu de capteurs utilisent les deux autres méthodes.





En effet, les 2 premières méthodes requièrent de tout lire.

Mais le skipping, quand on passe de 19 MP à 2 MP, ça doit avoir une drôle de gueule, tu es sûr de ton histoire ? Ça revient à prendre 1 pixel sur 9 (au centre de carrés de 3 x 3 pixels a priori). De plus, je ne suis pas sûr qu’on puisse prendre 1 pixel sur 3 sur une ligne sans prendre toute la ligne (certes on saute 2 lignes complètes ensuite).







renaud07 a écrit :



Même les caméras pros ont du rolling shutter et ceci d’autant plus que le capteur est gros. On peut en voir par exemple sur le film du hobbit filmé avec des RED.





Tu les as vu quand tu étais au cinéma ?

Je te crois, mais ça paraît étonnant que sur un film de cette qualité, avec des caméras onéreuses de définition élevée (5k il me semble), on tolère cet effet.

PS : que change la présence de 3 CCD au lieu d’un ?



Capté à 1000 i/s mais enregistré à 120 i/s, c’est surement la nuance.

ça ferait surement beaucoup de boulot pour le cpu du coup, peut être une puce en plus.

A voir dans les prochaines explications. <img data-src=" />


Simplement parce que prendre une photo et un film grande vitesse ne se fait pas de la même façon (ni même de la même façon qu’un film normal).








OlivierJ a écrit :



Tu les as vu quand tu étais au cinéma ?

Je te crois, mais ça paraît étonnant que sur un film de cette qualité, avec des caméras onéreuses de définition élevée (5k il me semble), on tolère cet effet.

PS : que change la présence de 3 CCD au lieu d’un ?









Non je ne suis pas allé les voir au ciné, mais j’ai vu une vidéo sur youtube qui en parlait avec capture d’écran à l’appui et on voyait bien les déformations. Quant au fait que l’effet soit toléré, je pense que c’est parce que c’est dans les mouvements rapides et qu’on n’a pas le temps de le remarquer sauf à regarder au ralenti ou images par images.



Pour les capteurs, c’est tout simplement une meilleur image, sur une caméra mono capteur les couleurs sont traitées par une matrice de bayer, alors que sur des 3 ccd chaque capteur ne s’occupe que d’une couleur. L’image est donc meilleur vu que toutes les pixels reçoivent la couleur, contrairement à la matrice où deux pixels voisins reçoivent une couleur différente (il y a donc des “trous”).



http://www.panasonic-la.com/avc/camcorder/share/feature/img/3ccd/02_02.jpg









Wellit a écrit :



Capté à 1000 i/s mais enregistré à 120 i/s, c’est surement la nuance.





Ca veut dire quoi, concrètement ? On fusionne 8 images (supposées être un peu différentes) pour en faire une à la fin ? Quel intérêt ?







Kikilancelot a écrit :



Simplement parce que prendre une photo et un film grande vitesse ne se fait pas de la même façon (ni même de la même façon qu’un film normal).





Mais encore ? Que veux-tu dire ?







renaud07 a écrit :



Non je ne suis pas allé les voir au ciné, mais j’ai vu une vidéo sur youtube qui en parlais avec capture d’écran à l’appui et on voyait bien les déformations.





C’étaient vraiment des captures d’écran (à partir d’un BR je suppose) ? Ou bien quelqu’un qui a filmé l’écran au cinéma ? (parce que dans ce 2e cas, les déformations seraient dues à la prise de vue :-) )







renaud07 a écrit :



Pour les capteurs, c’est tout simplement un meilleur image, sur une caméra mono capteur les couleurs sont traitées par une matrice de bayer […]





J’entends bien cet argument, mais tu as parlé de tri-CCD après avoir mentionné : “le rolling shutter est aussi très gênant pour les vidéos d’orages”, comme si ça réglait le problème : “Pour ce genre de vidéos les caméras 3CCD sont indispensables”. Qu’en est-il ?



PS : L’explication dehttp://www.panasonic-la.com/avc/camcorder/share/feature/img/3ccd/02_02.jpg est partiellement inexacte sur un point, la perte de lumière : les miroirs/prismes dichroïques provoquent la même perte de luminosité que la matrice de Bayer, non ?









OlivierJ a écrit :



C’étaient vraiment des captures d’écran (à partir d’un BR je suppose) ? Ou bien quelqu’un qui a filmé l’écran au cinéma ? (parce que dans ce 2e cas, les déformations seraient dues à la prise de vue :-) )







Oui c’était bien des captures du blu-ray, il faudrait que je retrouve la vidéo. Et ça me fait penser que j’en ai aussi vu dans une série y’a pas longtemps (sur un plan d’hélico, on voyait bien les pales déformées).







OlivierJ a écrit :



J’entends bien cet argument, mais tu as parlé de tri-CCD après avoir mentionné : “le rolling shutter est aussi très gênant pour les vidéos d’orages”, comme si ça réglait le problème : “Pour ce genre de vidéos les caméras 3CCD sont indispensables”. Qu’en est-il ?







Ça n’a pas d’importance que la caméra soit mono ou tri capteur. L’essentiel est que l’image soit prise en une seule fois (CCD ou CMOS global). J’ai dit tri CCD parce que je l’avais en tête à ce moment là.



Hum, pour ma part, sur un P7 c’est juste une bête lecture des lignes et colonnes centrales pour faire du FullHD.


J’ai du mal à capter, cela veut dire que quand je prend une photo avec mon smartphone à 1800 c’est en fait du 130 mécanique couplé à du 1800 émulé via temps de pose “virtuel” ? . Ou alors c’est uniquement valable pour la vidéo ? J’ai regardé la vidéo de sony en full hd qui est à 60 fps la qualité du ralentit est vraiment très bonne !



&nbsp;Olivier dans un de ces commentaire parlais des slow mo guy, qui doivent filmer avec une grosse exposition pour avoir une image lisible, avec une qualité vraiment très très pauvre et pas vraiment 169, et comparé à ce genre de capteur c’est vraiment le jour et la nuit.



Après il doit surement y avoir interpolation d’image, surement qu’ils ne donnent pas tous les détails pour ce faire copier, mais à cette vitesse de 1000fps une prise de vue “classique” équivaut plus ou moins à utiliser un trepied. Il faudrait voir sur des vidéos plus “funky” avec par exemple le smartphone attaché à une roue de voiture.








OlivierJ a écrit :



Mais encore ? Que veux-tu dire ?





Fait des recherches sur le fonctionnement d’une caméra grande vitesse et tu aura ta réponse. (Experimentboy fait une bonne explication de comment ça fonctionne sur sa chaine secondaire).









OlivierJ a écrit :



Je pense que l’article loupe un truc, car comment pourrait-on filmer à 1000 images par seconde avec un temps de pose par image de 1/120e de seconde : dans le meilleur des cas, ça permet 120 images par seconde.



Par ailleurs, l’obturateur d’une caméra en plein soleil est à bien moins que 1/120e de seconde (plutôt 1/1000e), sinon l’image serait surexposée, et on voit cet effet qui rend la vidéo légèrement saccadée du fait de l’absence de flou de bougé.





L’article ne manque rien, c’est juste que tu ne sais pas comment fonctionne une caméra.



&nbsp;temps de pose =/= nombre d’images par seconde.



Le temps de posene sert principalement que pour la photo.

L’enregistrement numérique d’une vidéo ne se sert pas de l’obturateur, il se fait par le biais d’un “rafraichissement” électronique du capteur à une fréquence plus ou moins importante.https://fr.wikipedia.org/wiki/Cam%C3%A9ra_num%C3%A9rique



&nbsp;Ce sont deux choses totalement différentes mais la confusion est entretenue par le fait que caméra et appareil photo sont aujourd’hui indissociables.

&nbsp;



A 1080, une vidéo fera, j’imagine, 1G pour 6-7 sec et nécessitera des vitesses d’écriture de &gt;150Mo/s…








skankhunt42 a écrit :



J’ai du mal à capter, cela veut dire que quand je prend une photo avec mon smartphone à 1800 c’est en fait du 130 mécanique couplé à du 1800 émulé via temps de pose “virtuel” ? . Ou alors c’est uniquement valable pour la vidéo ? J’ai regardé la vidéo de sony en full hd qui est à 60 fps la qualité du ralentit est vraiment très bonne !





Il n’y a pas d’obturateur mécanique sur un mobile, en tous cas. Si les données EXIF indiquent 1800 c’est que le contenu du capteur CMOS a commencé à être “capturé” après une exposition de 1/800e de seconde.

Pour une vidéo à 60 fps il faut “capturer” le contenu du capteur 60 fois par seconde, et ça veut dire que l’exposition est forcément inférieure (même de peu) à 1/60e de seconde.







skankhunt42 a écrit :



Olivier dans un de ces commentaire parlais des slow mo guy, qui doivent filmer avec une grosse exposition pour avoir une image lisible





Dans un documentaire sur les crash-tests de voiture faits par un constructeur français, en vidéo haute-vitesse, il était expliqué que les projecteurs de 15 000 W (oui oui) étaient allumés seulement quelques secondes avant la prise de vue, car ils n’étaient pas fait pour fonctionner très longtemps en continu (problème de chauffe certainement).







skankhunt42 a écrit :



Après il doit surement y avoir interpolation d’image, surement qu’ils ne donnent pas tous les détails pour ce faire copier, mais à cette vitesse de 1000fps une prise de vue “classique” équivaut plus ou moins à utiliser un trepied.





Si on pouvait se contenter d’interpoler, on ne s’embêterait même pas à faire du 120 i/s sur les GoPro et les mobiles qui le font :-) . Je n’ai pas compris ce que tu voulais dire avec l’histoire du trépied.







js2082 a écrit :



L’article ne manque rien, c’est juste que tu ne sais pas comment fonctionne une caméra.

 temps de pose =/= nombre d’images par seconde.





Il va falloir m’expliquer comment on peut filmer a X images/secondes avec un temps de pose &gt; 1/X secondes. Incroyable quand même…

Si on filme à 25 images/secondes, on prend l’image tous les 1/25e de secondes sur le capteur, l’image change tous les 1/25e de seconde (40 ms), donc le temps de pose NE PEUT PAS être supérieur à cette durée, ça n’a pas de sens.



Les progrès sont bien présents sur les smartphones, quid des Actioncams



https://goo.gl/forms/IwjUyszsrRw52LZh1








OlivierJ a écrit :



Si on pouvait se contenter d’interpoler, on ne s’embêterait même pas à faire du 120 i/s sur les GoPro et les mobiles qui le font :-) . Je n’ai pas compris ce que tu voulais dire avec l’histoire du trépied.





Tout d’abord merci de tes précisions tes commentaires sont très précis et utilises ! Alors concernant l’histoire du “trepied” quand l’ont shoot à haute vitesse : Quand un mec tape dans une balle avec une batte de baseball à 900 fps et que en gros pendant 300 frames tu est capable de voire la batte / balle avec un mouvement très très lent, le mouvement de la personne qui filme deviens presque anecdotique, qui ressemble quasiment à un trepied et donc ont peut traiter plus facilement les différences entre les pixels.



&nbsp;





OlivierJ a écrit :



Il va falloir m’expliquer comment on peut filmer a X images/secondes avec un temps de pose &gt; 1/X secondes. Incroyable quand même… Si on filme à 25 images/secondes, on prend l’image tous les 1/25e de secondes sur le capteur, l’image change tous les 1/25e de seconde (40 ms), donc le temps de pose NE PEUT PAS être supérieur à cette durée, ça n’a pas de sens.&nbsp;





Surement un amalgame pour le grand publique ! Si tu filme à 25 image seconde tu peut très bien prendre une image toute les 150 ème de seconde et n’en traiter qu’une sur deux. Après tu à le choix d’avoir une image bien exposée mais flou ou alors mal exposée mais net. Tu peu “virtuellement” augmenter l’exposition en doublant l’iso. Sachant que en général c’est utilisé en plein jours tu est souvent entre 50 et 200 iso, et les capteurs de smartphone sont très bon, tu peut monter facilement à 800 voir plus en mode vidéo.



Par exemple mon smartphone 16 megapixel fait bien mieux que mon bridge 10 mo avec le grand angle. La gestion du bruit est bien meilleurs, iso 800 sur le smartphone = iso 200 avec mon bridge. En vidéo avec le bridge je peut monter jusqu’a 1250 sans trop avoir de perte, comme quoi ça laisse une très bonne marge.





ps : Vous êtes sur que certains réflex “tombent” après 30.000 clichés ? Ca pèse pas lourd pour faire du timelapse ou de la vidéo :/









skankhunt42 a écrit :



Surement un amalgame pour le grand publique ! Si tu filme à 25 image seconde tu peut très bien prendre une image toute les 150 ème de seconde et n’en traiter qu’une sur deux.





Tu as raison mais certains ici parlent de faire l’inverse : filmer à 50 images/seconde en exposant à 1/25e de seconde. C’est un peu comme vouloir aller de Paris à Lyon en 1 h en roulant à 100 km/h : ce n’est pas possible, ou alors en De Lorean.







skankhunt42 a écrit :



ps : Vous êtes sur que certains réflex “tombent” après 30.000 clichés ? Ca pèse pas lourd pour faire du timelapse ou de la vidéo :/





Ce qui a été mentionné c’est l’élément mécanique le plus fragile d’un reflex (numérique ou pas), l’obturateur. Normalement ça n’est pas un problème pour la plupart d’entre nous, car avant de faire 50 000 ou 100 000 photos il y a de la marge (il m’arrive de faire 400 photos dans une soirée mais ce n’est pas tous les weekends, et c’est long à trier derrière). Pour le timelapse effectivement si tu prends un cliché par seconde pendant 1 h ça va vite. Pour la vidéo, l’obturateur n’est pas utilisé, le miroir est relevé et l’obturateur reste ouvert pour que le capteur soit exposé en permanence.









OlivierJ a écrit :



Il va falloir m’expliquer comment on peut filmer a X images/secondes avec un temps de pose &gt; 1/X secondes. Incroyable quand même…

Si on filme à 25 images/secondes, on prend l’image tous les 1/25e de secondes sur le capteur, l’image change tous les 1/25e de seconde (40 ms), donc le temps de pose NE PEUT PAS être supérieur à cette durée, ça n’a pas de sens.





Un capteur CMOS intègre en continu l’image reçue. Il n’y a pas un reset du capteur à chaque prise d’image.



Il y a donc un cumul du temps d’exposition sur plusieurs images pour atteindre la quantité de lumière nécessaire.



Tant que tous les points de l’image ne changent pas trop vite, cela fonctionne assez bien : le temps d’exposition de la majeure partie des pixels est bon.



On parle de filmer, ici. Pour une prise de photo, il faut bien avoir le temps d’exposition pour chaque photo. En fait, en écrivant cette dernière phrase, j’ai un doute parce que l’intégration doit se faire de la même façon, mais si l’on prend les photos plus vite, la qualité doit s’en ressentir (flou ou sous-exposition des parties qui ont bougé).



L’obturateur, je comprends bien le problème, mais les appareils photo des téléphones jouent de l’obturateur quand on filme ?

J’avais l’impression qu’il n’y avait pas d’obturateur sur ces trucs là, que seule la lecture du capteur numérique causait l’enregistrement ou pas de l’image.








fred42 a écrit :



Un capteur CMOS intègre en continu l’image reçue. Il n’y a pas un reset du capteur à chaque prise d’image.

Il y a donc un cumul du temps d’exposition sur plusieurs images pour atteindre la quantité de lumière nécessaire.





Haha mais non, sinon l’image serait rapidement floue <img data-src=" /> .

Vous me charriez les gars, là, avec ce genre de théorie <img data-src=" /> .



L’exposition du CMOS génère des charges électriques, qui sont ensuite récupérées par l’électronique pour être quantifiées (obtenir une valeur numérique). Cette lecture remet à zéro la charge, sinon au bout de peu de temps tout le capteur serait saturé.







fred42 a écrit :



On parle de filmer, ici. Pour une prise de photo, il faut bien avoir le temps d’exposition pour chaque photo.





Alors pour mémoire, on veut qu’une photo soit la plus nette possible, généralement (je parle de la zone sur laquelle on met au point). Pour un film, on peut avoir un peu de flou de bougé, ce qui est moins détecté par l’oeil/cerveau et en fait même souhaitable dans une certaine mesure pour que la perception qualitative soit meilleure.







ArchangeBlandin a écrit :



L’obturateur, je comprends bien le problème, mais les appareils photo des téléphones jouent de l’obturateur quand on filme ?

J’avais l’impression qu’il n’y avait pas d’obturateur sur ces trucs là, que seule la lecture du capteur numérique causait l’enregistrement ou pas de l’image.





C’est ça, mais on a déjà répondu N fois dans les commentaires :-) .

Dont en #71 un des miens.









ArchangeBlandin a écrit :



L’obturateur, je comprends bien le problème, mais les appareils photo des téléphones jouent de l’obturateur quand on filme ?

J’avais l’impression qu’il n’y avait pas d’obturateur sur ces trucs là, que seule la lecture du capteur numérique causait l’enregistrement ou pas de l’image.





Je&nbsp;me suis corrigé plus loin, en voulant corriger Sébastien je me suis foiré aussi ^^

&nbsp;



OlivierJ a écrit :



Pour un film, on peut avoir un peu de flou de bougé, ce qui est moins détecté par l’oeil/cerveau et en fait même souhaitable dans une certaine mesure pour que la perception qualitative soit meilleure.&nbsp;





&nbsp;+1. On en&nbsp;créé même artificiellement dans tout ce qui est créé par ordinateur&nbsp;(que ce soit les films&nbsp;3D ou le motion-design). &nbsp;









OlivierJ a écrit :



L’exposition du CMOS génère des charges électriques, qui sont ensuite récupérées par l’électronique pour être quantifiées (obtenir une valeur numérique). Cette lecture remet à zéro la charge, sinon au bout de peu de temps tout le capteur serait saturé.







Tu as raison sur dans les grandes lignes (reset à chaque image), mais pas dans le détail.

Voir le fonctionnement expliqué ici, pages 4344 du PDF.

Il y a un transistor de reset qui précharge la photodiode.



Par contre, la lecture ne remet pas à zéro : c’est un convertisseur analogique numérique qui convertit la tension en valeur numérique.



Il y a une électronique de commande qui synchronise le tout et qui fait que l’on reset bien avant chaque phase d’intégration et lecture.









fred42 a écrit :



Tu as raison sur dans les grandes lignes (reset à chaque image), mais pas dans le détail.

Voir le fonctionnement expliqué ici, pages 4344 du PDF.

Il y a un transistor de reset qui précharge la photodiode.

Par contre, la lecture ne remet pas à zéro : c’est un convertisseur analogique numérique qui convertit la tension en valeur numérique.

Il y a une électronique de commande qui synchronise le tout et qui fait que l’on reset bien avant chaque phase d’intégration et lecture.





Intéressant document, merci. Tu parles des pages 4344 du PDF qui sont numérotées 26 et 27, je suppose.

Cela dit, ce fonctionnement ne concerne qu’un type de capteur, il y en a aussi qui fonctionnent par accumulation de charge, et dont la lecture décharge la photodiode (ou le condo associé), cf ne serait-ce que juste après “Pixel à quatre transistors à photodiode PIN” ainsi que “Les pixels à réponse logarithmiques”.









OlivierJ a écrit :



Ce qui a été mentionné c’est l’élément mécanique le plus fragile d’un reflex (numérique ou pas), l’obturateur. Normalement ça n’est pas un problème pour la plupart d’entre nous, car avant de faire 50 000 ou 100 000 photos il y a de la marge





ma petite pierre a l’edifice :

je gère un parque d’environ 500 Nikon, effectivement la panne provient du rideau qui est HS, il s’agit du petit rivet d’entraînement qui lâche. une partie du rideau se promene devant le capteur, parfois ca empêche le fonctionnement de l’appareil, parfois pas. Il peut arriver si on force beaucoup d’avoir le capteur rayé.



la plupart ont entre 200 000 et 300 000 prise de vue, il y a plusieurs record quand meme, un a 7 500 000 prise de vue <img data-src=" />et un autre a 3 500 000 prise de vue.



je me tate toujours a mettre une goutte d’huile sur le rivet avant de les faire partir <img data-src=" />









sscrit a écrit :



la plupart ont entre 200 000 et 300 000 prise de vue, il y a plusieurs record quand meme, un a 7 500 000 prise de vue <img data-src=" />et un autre a 3 500 000 prise de vue.





Impressionnant !

Merci pour ce retour.



Concretement le vrai problème c’est qu’on ne connait pas la sensibilité, plus vous capturez vite moins vous aurez de lumière…. Prevoyez un grand soleil ou des lumières additionnel, car vous filmerez pas un chat noir sauté d’un mur un soir même de pleine lune ;)


C’est peu être l’occasion de mettre de la 3DXpoint dans les smartphones non ?

Au moins 1000€ le téléphone ce sera justifié pour une fois…