Microblog: A very long article Wikipedia article on the orientation of toilet paper [Jun 7th, 22:52] [R]

Tuesday, December 1st, 2020

Unpopular Ratings

Categories: [ Science ]

For quite a while, I've been wondering what to do with movies or games which have been rated with a small number of people, such as the ones found on IMDb or BoardGameGeek: users can give a 0 – 10 rating to items, and the users' average is then shown. Is an obscure movie rated 8 by 42 people actually worth an 8?

Putting aside the actual usefulness of those ratings, I wanted to know how much uncertainty there is on those values, knowing only the arithmetic mean and the number of people who have voted.

Given population (i.e., all the users who have seen the film or played the game and who could vote), when we take a sample (i.e., the users who have rated the item) of size n, we get a sample mean m. But if another sample had been taken, we would have gotten a slightly different sample mean. How much much different would these two values be? In other words, how close is this value from the value we would get if the whole population would have rated the item?

The standard error of the mean indicates how much the sample mean m can vary by calculating its standard deviation sm = s/√n. The problem is that it is based on the standard deviation s of the population, which is unknown. Given that we do not know the users' individual ratings, we cannot either calculate the standard deviation of the sample.

All is not lost, however: since the ratings are always between 0 and 10, we can estimate the maximum value of the standard deviation. My best guess is that this value is maximal when half the ratings are 0 and the other half are 10, leading to a standard deviation of 5.

Given that the means of 96% of the samples of size n falls within ±2sm of the population's mean, we know that the mean of the population is very likely to be between m−10√n (but no less than 0) and m+10√n (but no more than 10). So this obscure movie rated 8 by 42 users is worth between 6.5 and 9.5. Given that on IMDb movies rated above about 7 are reasonably good, the obscure movie may be worth watching.

[ Posted on December 1st, 2020 at 22:59 | no comment | ]

Saturday, December 14th, 2019

Battery Capacity Meter

Categories: [ Science ]

I have over forty Ni-MH low self-discharge rechargeable batteries (mostly Eneloops, and a few Vartas and GPs) and I have noticed that some of them tend to not keep the charge very well. In order to find out which ones are worth throwing away to be recycled, I needed a device that would measure their capacity.

The principle is very simple: recharge the battery, discharge it through a resistor with a known value, measure the current while it discharges, and integrate the current over time. This will give you the battery's capacity. A few things need to be taken into account: how do you know that a battery is depleted and what discharge current should be used? From what I could gather by reading a few Web forums, the battery is considered to be depleted when its voltage goes below 1.0 V or 0.9 V (I settled on 1.0 V), and the current should be such that the battery discharges in about five hours (for a 2000 mAh battery, that would be about 400 mA). If the current is too high, the battery's voltage while it is discharging will be very close to 1.0 V already at the beginning of the process and the capacity measurement will probably be biased. I noticed this in the first iteration of the device where I had a 1 Ω resistor and a 1 A current, and decided to change for a 3.3 Ω resistor after reading about the “discharge in 5 hours” rule.

The device


The prototype I built is very simple. The battery discharges through a 3.3 Ω ±1% 0.6 W resistor, and the voltage is measured using the Arduino's ADC (more on that below). A MOSFET (STMicroelectronics VNP35NV04-E, quite expensive but it turns fully On with only 2.5 VGS and its On resistance is only 13 mΩ, which is below the tolerance of the main resistor and the accuracy of what the Arduino can measure, so it can simply be ignored) controls the discharge and cuts the current once the “depleted” threshold has been reached to prevent damaging the battery. A 10 kΩ resistor acts as a pull-down for the MOSFET's gate, and a 110 Ω limits the gate current (whether it's really needed or not seems to depend whom you ask on Web forums, but since I had some lying around I decided to use them). There are two instances of the circuit on the prototype board, so I can test two batteries in parallel.

Accuracy of the Arduino's ADC

The Arduino's ADC has a maximum precision of 10 bits, meaning that the value read from e.g., A0 is translated to a value between 0 and 1023 included, by comparing A0 to a reference voltage that by default is the Arduino's supply voltage. It is however possible to get (reasonably) accurate voltage measurement with the Arduino (see this Web post titled Secret Arduino Voltmeter) by measuring first the supply voltage accurately against the ATMega328's internal band-gap reference. To do so, you need to first measure the band-gap reference's correct value (it's about 1.1 V, it's very stable over time and temperature, but it's exact value differs from one ATMega328 to the next).

The process therefore goes like this.

  1. With a trusted voltmeter, measure the Arduino's supply voltage VCC as accurately as possible.
  2. Using the code snippet in the blog post, measure the band-gap's value with the ADC; that gives you a number Nref. For better accuracy, compute the arithmetic mean of 1000 measurements to get rid of the random fluctuations in the measurement.
  3. Calculate Vref = Nref × Vcc / 1024 (and not 1023 as stated in the blog post). In my case, Vref = 1.089 V ±0.001V.
  4. Hardcode the Vref you have found in your Arduino program.

Then when you want to actually measure a voltage V with the Arduino's ADC, do as follows.

  1. Measure Nref with the ADC and compute the value of Vcc = Vref × 1024 / Nref (again, take the average of 1000 measurements).
  2. Measure N with the ADC and compute the value V = N × Vcc / 1024 (once again, average over 1000 measurements).

If my uncertainty calculations are correct, I get a 0.12% uncertainty on the value of Vcc (compounding the uncertainty of the voltmeter and the ADC), which is less than the 1% uncertainty on the discharge resistor value. I tried to accurately measure the 3.3 Ω resistor value, but my amperemeter is not accurate enough for currents above 200 mA, so that's the best I can hope to achieve.

Take a look at the code if you want to know the details of the implementation (especially computing in millivolts in order to use only integers instead of floats).

What about those batteries, then?

I measured the capacity of 27 batteries so far: 2 GPs, 3 Vartas and 22 Eneloops (6 of generation 1, 7 of generation 2, 2 of generation 3 and 7 of generation 4). All have a nominal capacity of 1900 mAh.

Both GPs have a capacity of 1 mAh, so they are useful only as paperweights. The Vartas have capacities of 870, 450 and 250 mAh, so they are only marginally more useful than the GPs.

One Eneloop is in really bad shape (200 mAh), but the others have capacities between 1660 and 1900 mAh, with a mean of 1790 mAh.


This is a typical battery, in good shape (1890 mAh). The voltage quickly drops to around 1.2 V and remains stable for a while before dropping again.


This one is definitely good for nothing (200 mAh). I remember accidentally dropping batteries on the floor a couple of times in the past, maybe this one suffered from it?


This one is a first generation eneloop, bought probably around 2011. It still has a capacity of 1660 mAh, but the shape of the curve is different from the typical one, maybe due to old age?

[ Posted on December 14th, 2019 at 17:08 | no comment | ]

Monday, September 30th, 2019

Week numbers

Categories: [ Science ]

Given a week number, it's not easy to know when it is located in the calendar. And to add to the confusion, there are three definitions of the week number (ISO-8601; Middle Eastern; North-American and Islamic). The EU and most European countries use the ISO-8601 definition, according to Wikipedia.

The following method is quite approximative so the actual definition does not matter so much, but it should help placing a week number in the calendar without having to look it up:

  1. Divide by 4
  2. Subtract 10%
  3. Add 1

The integer part (before the decimal separator) of the result is the number of the month, and the fractional part (after the decimal separator) times three tells you near what day of the month it is located.

For example:

  • Week 1: 1/4 is 0.25, minus 10% is about 0.2, plus 1 is 1.2; 2 times 3 is 6: it's around January 6th (Jan. 1-5, 2019 actually).
  • Week 7: 7/4 is 1.75, minus 10% is about 1.6, plus 1 is 2.6; 6 times 3 is 18: it's around February 18th (Feb. 10-16, 2019 actually).
  • Week 14: 14/4 is 3.5, minus 10% is about 3.2, plus 1 is 4.2; 2 times 3 is 6: it's around April 6th (Mar. 31-Apr. 6, 2019 actually).
  • Week 42: 42/4 is 10.5, minus 10% is about 9.5, plus 1 is 10.5; 5 times 3 is 15: it's around October 15th (Oct. 13-19, 2019 actually).
  • Week 35: 35/4 is 8.75, minus 10% is about 7.9, plus 1 is 8.9; 9 times 3 is 27: it's around August 27th (Aug. 25-31, 2019 actually).
  • Week 52: 52/4 is 13, minus 10% is about 11.7, plus 1 is 12.7; 7 times 3 is 21: it's around December 21st (Dec. 22-28, 2019 actually).

[ Posted on September 30th, 2019 at 18:13 | no comment | ]

Optique photo 7 : conclusion

Translation: [ Google | Babelfish ]

Categories: [ Science ]

Suite à des discussion sur la distance focale équivalente d'un objectif monté sur des appareil photo numériques équipés de capteurs de différentes tailles et sur des notions exotiques comme l'ouverture équivalent et la sensibilité équivalente évoquées par Richard Butler sur dpreview.com, je me suis penché sur la question de la pertinence de ces concepts. Les articles suivants publiés précédemment sur mon blog présentent les résultats de mes réflexions.

  1. L'angle de champ
  2. La profondeur de champ
  3. La perspective
  4. La sensibilité
  5. Le temps de pose
  6. L'affichage d'une photo

Je ne m'intéresse à la photo que sous l'angle de l'optique, et comme je ne suis pas photographe pour deux sous, j'ai peut-être écrit des énormités ; si c'est le cas, on peut poster des commentaires sous les articles et tenter de me convaincre que je me suis trompé.

Caractériser une photo

Une photo est souvent caractérisée par le modèle d'appareil ayant servi, ainsi que par la distance focale de l'objectif utilisé, le nombre d'ouverture et le temps de pose. Étant donné la confusion créée par la notion de distance focale équivalente, je me suis demandé si la distance focale était vraiment pertinente pour caractériser une photo. Mais caractériser quoi, exactement ? Et caractériser dans quel but ?

Je fais l'hypothèse que caractériser une photo sert à reproduire la photo, autant que possible à l'identique, avec le même appareil ou avec un autre appareil. Ce qu'on peut chercher alors à reproduire c'est l'angle de champ, les distances limites de la profondeur de champ (c'est à dire la distance du premier plan net et du dernier plan net) et le cas échéant un effet voulu de sur- ou sous-exposition, ou de flou de mouvement. On peut décrire ces caractéristiques par des paramètres ayant davantage de sens que le trio focale, diaphragme et temps de pose ?

L'angle de champ est une combinaison de la distance focale et la taille du capteur, donc indiquer seulement la distance focale en laissant le soin au lecteur de deviner la taille du capteur en fonction du modèle de l'appareil est possible, mais on peut faire mieux en indiquant directement la valeur de l'angle de champ au moment de la prise de vue. Il est ensuite possible de recréer cet angle de champ avec n'importe quelle combinaison judicieuse de capteur et d'objectif.

De même, la profondeur de champ dépend de la distance focale, de l'ouverture du diaphragme, de la taille des pixels du capteur et de la distance de mise au point. Au lieu de détailler les trois premières valeurs, on peut les combiner sous la forme de la distance hyperfocale. Les distances des premier et dernier plans nets sont alors deux fonctions simples de la distance de mise au point et de la distance hyperfocale. Reproduire la profondeur de champ devient alors simplement une question de prendre la même distance hyperfocale et de faire la mise au point sur la distance donnée.

Si le photographe ne cherche pas d'effet d'exposition particulier, la sensibilité du capteur est une fonction des autres paramètres pour une valeur d'exposition idéale, standard. En revanche si la photo a été volontairement sur- ou sous-exposée, il faut indiquer la sensibilité utilisée au moment de la prise de vue.

Le flou de mouvement enfin est particulier car il dépend du temps, et le temps de pose est le seul paramètre qui en dépende également. Dans de cas d'une exposition standard, le temps de pose a une valeur minimale qui dépend de la distance focale, et on peut supposer que cette valeur sera choisie car elle permet d'utiliser la sensibilité la plus faible possible et ainsi réduire le bruit. En revanche si un flou de mouvement est voulu par le photographe, ou au contraire si l'objet se déplace rapidement et que le but est de le « figer », il faut alors indiquer le temps de pose.

En conclusion, au lieu de caractériser une photo par le modèle d'appareil, la distance focale, le nombre d'ouverture et éventuellement le temps de pose et la sensibilité, on peut caractériser une image de manière plus générique et descriptive en indiquant l'angle de champ, la distance hyperfocale, la distance de mise au point et éventuellement la sensibilité et le temps de pose. Bien que ces nouvelles caractéristiques soient moins connues que celles utilisées jusqu'à présent, calculer leurs valeurs ne pose pas de problème aux appareils photos numériques et pourraient donc être incluses dans les métadonnées des images. Et je suis certain que la signification des caractéristiques « classiques » n'est pas mieux comprise par la plupart des photographes que les caractéristiques proposées ici, remplacer en ensemble de valeurs hermétique par un autre ensemble de valeurs hermétiques ne devrait donc pas poser de problème une fois vaincue la résistance naturelle de l'être humain au changement.

Applications numériques

Pour se faire une idée des valeurs numériques des caractéristiques décrites plus haut, voici des applications numériques de diverses formules pour trois appareils photos de référence : un compact, un boitier APS-C et un plein format avec 3 objectifs.

Appareils photo de référence
Appareil Pixels Capteur Objectifs
A 21,1 Mpix 6,17×4,55 mm
4,3-172,0 mm, f/3,3-f/6,9
B 25,0 Mpix 23,5×15,6 mm
16 mm, f/2,8 ;
18-135 mm, f3,5-5,6
C 27,1 Mpix 36×24 mm
(plein format)
16-35 mm, f/4 ;
35-70mm, f/2,8;
70-200mm, f/2,8
Dimensions d'un pixel
Appareil ε Surface Densité
A 1,15 μm 1,33 pm2 752 000 px/mm2
B 3,83 μm 14,7 pm2 68 200 px/mm2
C 5,65 μm 31,9 pm2 31 400 px/mm2
Angles de champ
Appareil θ (rad) θ (°)
A 1,45-0,446 83-2,55
B 1,45
C 1,86-1,11
Distances hyperfocales
Appareil F (m) f/N (mm)
A 2,01-3730 4,3/8-172/6,9
B 3,04-23,9
C 2,06-54,2

En admettant que les capteurs des appareils A, B et C ne diffèrent que par la taille de leurs pixels (ce qui est loin d'être évident) et en fixant un niveau de bruit à ne pas dépasser dans l'image obtenue, on peut comparer leur « sensibilités » relatives.

  • A est 11 fois moins sensible que B et 24 fois moins sensible que C.
  • B est 11 fois plus sensible que B et 2,2 fois moins sensible que C.
  • C est 24 fois plus sensible que A et 2,2 fois plus sensible que B.

On peut aussi comparer, à distance focale et temps de pose égaux, de combien de crans il faut ouvrir ou fermer le diaphragme pour obtenir la même exposition et le même niveau de bruit.

  • A doit ouvrir de 3,5 crans par rapport à B et de 4,6 crans par rapport à C.
  • B doit fermer de 3,5 crans par rapport A et ouvrir de 1,1 crans par rapport à C.
  • C doit fermer de 4,6 crans par rapport à A et de 1,1 crans par rapport à B.
  • Moniteur 16:10 24" FullHD : 2,30 Mpx ; taille d'un pixel : 405 μm
  • Moniteur 16:9 32" 4k : 8,29 Mpx ; taille d'un pixel : 265 μm
  • Moniteur 16:9 27" 5k : 14,8 Mpx ; taille d'un pixel : 167 μm
  • Télévision 16:9 40" FullHD : 2,07 Mpx ; taille d'un pixel : 661 μm
  • Télévision 16:9 55" 4k : 8,29 Mpx ; taille d'un pixel : 455 μm
  • Télévision 16:9 85" 8k ; 33,2 Mpx ; taille d'un pixel : 351 μm
  • Impression papier à 300 dpi :taille d'un pixel : 84,7 μm
  • Impression à 300 dpi en 10×13 cm : 1,81 Mpix
  • Impression à 300 dpi en 10×15 cm : 2,09 Mpix
  • Impression à 300 dpi en 20×30 cm : 8,37 Mpix
  • Impression à 300 dpi en 40×60 cm : 33,5 Mpix
  • Impression à 300 dpi en 76×115 cm : 122 Mpix

[ Posted on September 30th, 2019 at 08:30 | no comment | ]

Friday, September 20th, 2019

Optique photo 6 : l'affichage

Translation: [ Google | Babelfish ]

Categories: [ Science ]

Taille d'un point d'affichage

La notion de flou qui est importante pour la profondeur de champ et le flou de bougé ne dépend pas tant de la taille des pixels du capteur que de la taille des pixels au moment de l'affichage, que ce soit sur un écran ou sur un support physique comme le papier. En effet, utiliser la taille d'un pixel comme taille maximale ε d'une tache de flou donne une garantie que le flou n'est pas perçu par le capteur et donc n'est pas enregistré dans l'image, mais puisque l'image est destinée à être regardée par un humain, ce qui importe in fine c'est la capacité de l'humain à percevoir le flou. On peut donc définir une nouvelle valeur de ε utilisé dans les calculs de profondeur de champ et de bougé en fonction de la manière d'afficher l'image.

Pour un affichage sur écran, on peut calculer la taille d'un pixel ε (en mètres) en fonction de la diagonale D (en pouces), du format R (par exemple 16/9) et du nombre de pixels par ligne n:

ε = 0,0254 × D√(1 + 1 / R) / n

Pour un affichage sur papier, on peut calculer la taille d'un point ε (en mètres) en fonction de la définition de l'impression d (en points par pouce, dpi):

ε = 0.0254 / d

Agrandissement maximal

Pour éviter les effets de crénelage lors de l'affichage, il faut aussi veiller à ne pas afficher l'image à une trop grande taille par rapport à la résolution de l'image numérique. En d'autres termes, le nombre de pixels N de l'affichage ne doit pas être plus grand que le nombre de pixels de l'image (c'est à dire du capteur si on ne retaille pas l'image). On suppose ici que l'intégralité de l'image est affichée sur l'écran ou le papier, c'est à dire qu'on ne va pas zoomer dans l'image.

Pour un écran, le nombre de pixels N vaut

N = n2 / R

Pour un tirage papier de densité d points par pouce, N vaut

N = 0,155 × l2d2 / R

où l est la largeur du papier et R est le rapport largeur sur hauteur.

On peut aussi calculer N en fonction de la largeur l et la hauteur h du papier :

N = 0,155 × lhd2

[ Posted on September 20th, 2019 at 13:06 | 1 comment | ]

Monday, September 16th, 2019

Optique photo 5 : le temps de pose

Translation: [ Google | Babelfish ]

Categories: [ Science ]

Exposition et temps de pose

Du point de vue pratique, l'exposition d'une photo dépend du nombre d'ouverture du diaphragme, de la sensibilité du capteur et du temps de pose. On peut comprendre cette exposition comme la quantité de lumière nécessaire pour que chaque pixel du capteur CCD reçoive suffisamment de photons pour produire une valeur « raisonnable » de ce pixel. On a alors le choix d'exposer ces pixels à un flot de lumière important pendant un temps court, ou au contraire un flot de lumière plus faible pendant un temps plus long pour recevoir le même nombre de photons, et donc obtenir le même résultat.

Plus formellement, l'exposition lumineuse H est définie par H = Et, où E est l'éclairement lumineux c'est à dire le flot de lumière et t est le temps de pose.


En faisant l'hypothèse d'un système idéal d'une lentille mince parfaitement transparente uniformément éclairée par l'objet photographié, on peut définir l'éclairement lumineux comme E = Lπ / (4(N / (1 - f / l))2) où L est la luminance de l'objet, f est la distance focale de l'objectif, l est la distance de l'objet et N est le nombre d'ouverture du diaphragme. Dans le cas courant où la distance focale est négligeable par rapport à la distance à l'objet, on peut simplifier cette définition en E = Lπ / (4N2).

Par ailleurs, la sensibilité est définie par S = H0 / H où H0 est une valeur d'exposition de référence, constante. En considérant que la luminance de l'objet est elle aussi constante, on obtient la relation

St / N2 = 4H0 / (Lπ)

qui indique bien que si l'un des trois paramètres N, S ou t varie alors l'un au moins des deux autres paramètres doit varier pour que l'égalité soit toujours vérifiée.

Flou et temps de pose

Si le sujet ou l'appareil photo se déplacent pendant la prise de vue, on comprend aisément qu'un point de l'objet donne une image qui se déplace sur le capteur, qui enregistre alors plusieurs points contigus.

Parmi tous les mouvements possibles de l'appareil photo qui conduisent à un flou de bougé, un mouvement simple à modéliser est une rotation de l'appareil photo autour du centre optique O. On considère que durant la prise de vue, le point A s'est déplacé en B, et que le temps de pose est assez long pour que le capteur enregistre toutes les positions prises par ce point entre A' et B'. L'image du point, au lieu d'être un point, est alors un trait de longueur h'. On peut exprimer h' en fonction de θ

h' = tan(θ)lf/(l-f)

Lorsque la distance focale f est négligeable devant l et que θ est inférieur à 0.5 radians (soit 29°, ce qui fait que l'erreur d'approximation de tan(θ) est inférieure à 10%), on peut simplifier en

h' = fθ

En considérant que l'angle θ est le résultat d'une rotation de vitesse angulaire ω durant un temps t, c'est-à-dire θ = ωt on peut écrire

h' = fωt

En notant ε la hauteur d'un pixel et en reprenant l'hypothèse que le flou est invisible si la taille h' de la « tache » de flou est plus petite qu'un pixel, on peut écrire que le flou de bougé est invisible si

t < ε/(fω)

On retrouve ici l'approximation dite « de l'inverse de la focale », à savoir que pour éviter le flou de bouger,

« le temps de pose minimum a la même valeur numérique que l'inverse de la distance focale exprimée en millimètres. »

Cette approximation suppose que ε/ω = 1/1000 m·s·rad-1. On peut supposer que pour un photographe moyen, la vitesse ω de ses mouvements involontaires est constante, mais on voit que cette approximation dépend directement de la taille ε d'un pixel qui peut beaucoup varier d'un capteur à l'autre.

[ Posted on September 16th, 2019 at 21:22 | 2 comments | ]

Sunday, September 15th, 2019

Optique photo 4 : la sensibilité

Translation: [ Google | Babelfish ]

Categories: [ Science ]

Le bruit

Chaque pixel d'un capteur CCD d'appareil photo numérique est un transducteur qui transforme une quantité de lumière reçue Q en une différence de potentiel électrique u0 qui est proportionnelle à Q selon un facteur f :

u0 = fQ

Dans un situation idéale, une valeur donnée de Q devrait donner systématiquement la même valeur nominale u0. En réalité, à cause du bruit, des mesures répétées d'une même valeur d'exposition donneront des valeurs différentes de u

u = u0 + ε

où ε est une erreur de mesure aléatoire. Cela signifie que chaque mesure répétée de u aura une valeur différente de ε, mais aussi que deux pixels voisins qui sont exposés de la même manière donneront des valeurs de u différentes.

Si on considère qui le bruit est un bruit blanc (ce qui est probablement faux mais suffisamment similaire à la réalité pour être utile à cette explication), alors les valeurs de ε sont couramment proches de zéro (et donc u est proche de u0), mais ε peut parfois, plus rarement, être nettement plus grand que zéro et donc la valeur de u est nettement différente de u0.

La sensibilité d'un capteur numérique

Les valeurs typiques de u sont très petites et il est donc nécessaire de les amplifier avant de les numériser. Ainsi une valeur v de pixel (typiquement entre 0 pour la valeur la plus sombre et 255 pour la valeur la plus lumineuse) est obtenue en effectuant

v = Au si Au ≤ vmax
v = vmax si Au > vmax

où A est le facteur d'amplification. Comme la valeur de v ne peut dépasser vmax, on comprend que si l'amplification A choisie est trop élevé par rapport à u, l'intervalle de valeurs possibles pour un pixel n'est pas suffisant pour représenter la valeur correcte de ce pixel, et on arrive à la saturation.

En faisant varier A, on peut faire varier la « sensibilité » du capteur et obtenir des valeurs élevées de v (donc un pixel très lumineux) à partir d'une valeur faible de u (par exemple en photographiant dans une situation de faible luminosité).

Cependant, comme v contient aussi le bruit ε, ce dernier est amplifié de la même manière :

 v = Au0 + Aε

Ainsi, plus la « sensibilité » du capteur est élevée, c'est à dire plus le facteur d'amplification A est élevé, plus le bruit est élevé et devient perceptible pour l'observateur.

Par exemple pour une image d'un objet noir, on s'attend à ce que v soit proche de zéro pour tous les pixels même pour une grande valeur de A parce que u0 est justement proche de zéro. Mais il peut arriver que ε soit bien plus grand que u0, ce qui conduit à ce que la valeur v du pixel soit essentiellement égale à Aε. Ceci se traduit par des pixels brillants au milieu de pixels sombres, typiques du bruit des photos prises en faible lumière avec une sensibilité élevée.

Comparaison de capteurs

Dans des conditions d'éclairage uniforme dans l'espace et le temps d'une surface s pendant un temps t (le temps de pose d'une photo), on peut définir les grandeurs suivantes :

où Q est la quantité de lumière c'est à dire approximativement le nombre de photons qui arrivent sur la surface s. En combinant ces trois définitions, on obtient

Q = Hs

c'est à dire que la quantité de lumière qui arrive sur un pixel est proportionnelle à la surface de ce pixel. Autrement dit, à exposition H égale, un pixel plus grand reçoit une plus grande quantité de lumière qu'un pixel plus petit.

En reprenant définition de u0 plus haut, on a

u0 = fHs

et donc, en ignorant pour le moment le bruit ε on a

v = AfHs

Ainsi, pour obtenir la même valeur v avec deux capteurs (capteur 1 et capteur 2) dont les pixels ont respectivement des surfaces s1 et s2, on a besoin d'un facteur d'amplification A1 sur le capteur 1 et A2 sur le capteur 2 tels que

A2 = A1s1 / s2

On a vu plus haut que le bruit est amplifié. Cela se traduit par

A2ε = A1εs1 / s2

c'est à dire que le bruit dans l'image obtenue par le second capteur est s1 / s2 fois plus élevé que le bruit dans l'image obtenue par le premier capteur.

Qualitativement, cela signifie que pour obtenir deux photos exposées de manière identiques avec deux appareils différents, l'un muni d'un capteur à grands pixels et le second muni d'un appareil à petits pixels, celui dont les pixels sont petits a besoin d'un facteur d'amplification plus élevé et produit donc une image plus bruitée.


La sensibilité est définie par S = H0 / H où H0 est une valeur d'exposition de référence.

Un photographe s'attend à ce que lorsqu'on prend la même photo avec deux appareils (dont les capteurs sont équivalents à l'exception de la taille des pixels, et donc de leur nombre), l'image obtenue est exposée de la même façon (en supposant que la distance focale, le nombre d'ouverture, le temps de pose et la sensibilité sont les mêmes). Une conséquence est que les facteurs d'amplification des deux appareils doivent être différents puisque les tailles des pixels sont différentes, et que l'image de l'appareil dont les pixels sont plus petits contiendra donc plus de bruit.

Réciproquement, si on cherche à produire avec les deux appareils des images contenant une quantité de bruit identique, il faut changer les paramètres d'exposition de l'appareil produisant le plus de bruit de sorte à

  • diminuer la sensibilité S d'un facteur s1 / s2 afin d'utiliser le même facteur d'amplification dans les deux appareils, et
  • augmenter l'exposition H d'un facteur s1 / s2 afin de compenser la diminution de la sensibilité.

On peut parvenir à ce dernier point en augmentant le temps de pose ou en augmentant la surface de la pupille du diaphragme d'un facteur s1 / s2.

Selon le modèle simplifié utilisé ici, à tailles de capteurs égales, un capteur de plus haute définition (donc comportant un plus grand nombre de pixels) produira donc des images contenant plus de bruit.

Si on décide de considérer qu'avec une exposition de référence Href la sensibilité Sref maximale d'un capteur de référence dont les pixels ont une surface sref représente une quantité de bruit de référence, on peut considérer qu'à quantité de bruit identique, un capteur de plus haute définition dont les pixels ont une surface s aura donc une « sensibilité équivalente » Seq plus faible nécessitant une exposition Heq. En effet Sref = H0 / Href et Heq = sref / sHref, donc

Seq = Srefs/sref

Il faut noter que la sensibilité équivalente, qui dépend de la surface des pixels, n'a rien à voir avec la focale équivalente qui dépend des dimensions du capteur et non de celles de ses pixels.

[ Posted on September 15th, 2019 at 17:22 | 2 comments | ]

Saturday, September 14th, 2019

Optique photo 3 : la perspective

Translation: [ Google | Babelfish ]

Categories: [ Science ]

Le grandissement


La hauteur h' de l'image d'un objet de hauteur h situé à une distance l d'un objectif de distance focale f est donnée par h' = hf / l. Le rapport des tailles entre l'objet et l'image s'appelle le grandissement γ, et en supposant que f est négligeable devant l, γ est défini par

γ = h' / h = f / l

Le grandissement dépend donc uniquement de la distance à l'objet et de la distance focale de l'objectif.

La perspective

On peut donner une valeur chiffrée à la perspective en comparant les tailles des images de deux objets de même taille mais situés à des distances différentes. En supposant que la profondeur de champ est suffisante pour que les images des deux objets soient nettes, on peut noter h'1 et h'2 les hauteurs de ces images et l1 et l2 les distances des objets, puis calculer le rapport h'1 / h'2

h'1 / h'2 = l2 / l1

On constate que le rapport des hauteurs des images dépend seulement du rapport des distances des deux objets. En particulier, il ne dépend pas de la distance focale de l'objectif (si cette dernière est négligeable devant les distances aux objets).

Une conséquence de ce constat est qu'un objectif à longue focale n'« écrase » pas davantage les perspectives qu'un objectif à courte focale (si on ignore les déformations sur les bords de l'image dûs aux courtes focale). Cette conclusion est cohérente avec le fait qu'un objectif à courte distance focale associée à un capteur de petite taille donnera la même image (avec la même perspective) qu'un objectif de plus longue distance focale associé à un capteur plus grand (lorsque le rapport des distance focales de ces deux objectifs est égal au crop factor des deux capteurs).

[ Posted on September 14th, 2019 at 14:25 | 1 comment | ]

Friday, September 13th, 2019

Optique photo 2 : la profondeur de champ

Translation: [ Google | Babelfish ]

Categories: [ Science ]

Le flou


Lorsque la mise au point d'un système optique (simplifié) a été effectuée, l'image d'un objet ponctuel A situé à une distance l de l'objectif est un point A'. La mise au point est cependant imparfaite pour un objet B situé à une distance L plus (ou moins) loin que l : les rayons lumineux convergent en B' au lieu de A', continuent leur course et vont s'étaler autour de A' dans une zone de largeur ε. Sur le capteur d'un appareil photo, l'image B' de B est donc une tache circulaire dont le diamètre ε dépend de L, de la distance de mise au point l, de la distance focale f de la lentille et du diamètre d de la pupille, c'est-à-dire le trou circulaire par lequel la lumière entre dans la lentille, délimitée par le diaphragme. On considère ici que la pupille est suffisamment grande pour négliger les effets dûs à la diffraction.

On considère que l'image d'un point est net lorsque l'observateur (humain, en général) est incapable de faire la différence entre un « vrai » point et une tache. Le diamètre ε maximal d'une telle tache est lié au pouvoir de séparation de l'½il de l'observateur, qui est lié non seulement à la taille de la tache mais aussi à la distance à laquelle se situe l'observateur : plus l'observateur est éloigné, plus il est difficile de distinguer une petite tache d'un « vrai » point. La valeur de cet ε maximal n'est pas universelle, car elle dépend in fine de l'affichage de la photo (sur écran ou en tirage papier) et de la manière dont on regarde cette photo : il sera par exemple plus facile de remarquer un flou en regardant de près une image tirée en grand format qu'en regardant de loin une image tirée en petit format.

La profondeur de champ

D'après l'article de Wikipedia sur la Profondeur de champ, les limites de distance où les objets donneront une image considérée comme nette, une fois choisie un valeur ε maximale sont

L = l / (1 ± εl/df)

Les objets dont la distance est située entre ces limites auront une image considérée comme nette, car la tache de diamètre ε est trop petite pour être distinguée d'un « vrai » point net. On remarque que pour photographier un objet donné situé à une distance l en utilisant un objectif de distance focale f donnée, ces deux valeurs limites ne dépendent que du diamètre de la pupille, et pas du tout de la taille du capteur de l'appareil photo. Plus précisément, si les pixels du capteur sont plus grands que ε il n'y aura aucun flou car la tache circulaire sera contenue dans un seul pixel. Si les pixels sont plus petits que ε mais que les pixels à l'affichage de la photo (sur écran ou sur papier) sont plus grands que la tache circulaire, alors il n'y aura aucun flou à l'affichage, mais on pourra voir le flou en zoomant dans l'image (ce qui revient à dire que les pixels d'affichage deviennent plus petits que la tache circulaire).

Le nombre d'ouverture et la focale équivalente

La taille d de la pupille est exprimée dans la pratique non pas en millimètres, mais en fraction 1/N de la distance focale de l'objectif : d = f / N. N est le nombre d'ouverture et vaut donc N = f / d.

Si considère qu'en utilisant un objectif de distance focale f sur un capteur de taille différente on a une distance focale équivalente feq = kf, alors on peut écrire

N = feq / kd

où k est appelé « crop factor », soit

kN = feq / d

En introduisant la notion de nombre d'ouverture équivalent Neq défini par Neq = kN, la formule précédente devient

Neq = feq / d

qui est a la même forme que la définition du nombre d'ouverture, mais en utilisant le nombre d'ouverture équivalent et la focale équivalente.


On peut définir F = df/ε. En remplaçant le diamètre de la pupille d par son expression utilisant la distance focale et le nombre d'ouverture, on obtient

F = f2/εN

Les distances limites de la profondeur de champ deviennent alors

L = lF / (F ± l)

La distance hyperfocale F est la distance l minimale pour laquelle tous les objets entre F/2 et l'infini sont nets. Un corrolaire est que lors d'une mise au point à l'infini, tous les objets situés au delà d'une distance F sont nets.

Si on utilise la distance hyperfocale comme unité de distance de mise au point photographié, on peut représenter, de manière générique pour n'importe quelle combinaison de capteur, distance focale et nombre d'ouverture, les distances limites entre lesquelles les objets forment des images nettes (en supposant toujours que la distance focale est négligeable par rapport à la distance de mise au point).

En notant l = qF, on peut exprimer L en fonction de q et F:

L = qF / (1 ± q)

Le diagramme ci-contre indique les limites minimum et maximum de netteté pour une mise au point égale à une fraction de la distance hyperfocale F. On remarque que vers 0,9F, la limite maximum de netteté est déjà à 10F, et tend vers l'infini lorsqu'on se rapproche de 1F. Si on fait la mise au point à une valeur supérieure à F, la limite maximum de netteté reste à l'infini alors que la limite minimale n'augmente comparativement que très peu.


Le diagramme ci-contre représente les limites de netteté pour des distances de mise au point inférieures à 0,5F. On remarque que lors d'une mise au point à 0,5F, les objets situés au delà de F ne sont plus nets.

[ Posted on September 13th, 2019 at 18:54 | 4 comments | ]

Tuesday, September 10th, 2019

Optique photo 1: l'angle de champ

Translation: [ Google | Babelfish ]

Categories: [ Science ]

Le modèle simplifié


On peut simplifier un objectif d'appareil photo en le considérant comme une lentille mince de centre O et de distance focale f. L'axe optique de la lentille passe par O et est perpendiculaire à cette dernière. Les points F et F', situés de part et d'autre de la lentille à une distance f sont les points focaux de cette dernière. L'objet AB, situé à une distance l de la lentille donne alors une image A'B' sur le capteur de l'appareil photo. La hauteur de l'objet est h et la hauteur de l'image est h'.

Les règles de l'optique géométrique sont simples :

  • les rayons lumineux passant par le centre O de la lentille ne sont pas déviés, donc AA' et BB' sont des lignes droites ;
  • les rayons lumineux qui arrivent sur la lentille parallèlement à l'axe optique ressortent de la lentille en passant par le point focal F', tel le rayon BCB' ;
  • les rayons lumineux qui arrivent sur la lentille en passant par le point focal F ressortent parallèlement à l'axe optique, tel le rayon BDB'.

L'angle de champ

L'angle sous lequel l'objectif voit l'objet AB est l'angle θ. On a tan θ = h / l et tan α = h / (l - f) =  h' / f. On en déduit que tan θ = (l - f)h' / lf, que l'on peut simplifier (lorsque f est négligeable devant l) en tan θ = h' / f.

Si on considère que l'image A'B' et son symétrique (qui n'est pas représenté sur le diagramme) sont ensemble suffisamment grands pour couvrir l'intégralité de la diagonale du capteur, on sait que la hauteur h' de l'image représente la moitié de la diagonale d du capteur. Cela signifie que l'angle θ est la moitié de l'angle de champ du système objectif-capteur. On a alors

tan(angle de champ / 2) = d / 2f

Ceci montre que l'angle de champ dépend seulement de la distance focale de l'objectif et de la taille du capteur (lorsque f est négligeable devant l, soit en pratique lorsque la distance à l'objet est au moins dix fois plus grande que la distance focale).

Angle de champ et taille de capteur

Pour deux capteurs de tailles différents et avec un objectif donné, le rapport des tangentes des demi-angles de champ est égale au rapport des tailles des capteurs. Pour des angles de champ de moins de 53° (c.-à-d. lorsque la valeur de la tangente est proche de la valeur de l'angle, en radians), c'est à dire lorsque la distance focale est plus grande que la diagonale du capteur, on peut faire l'approximation que le rapport des angles de champ est égal au rapport des tailles des capteurs, avec une erreur de moins de 10%, soit

angle1 / angle2 = diagonale1 / diagonale2

Ainsi par exemple un capteur deux fois plus grand qu'un autre capteur donnera un angle de champ deux fois plus grand lorsque ces capteurs sont munis d'objectifs de même distance focale.

Si on veut une approximation qui fonctionne aussi pour de grands angles, il devient nécessaire de comparer les tangentes des demi-angles de champ, par exemple

tan(angle1 / 2) / tan(angle2 / 2) = diagonale1 / diagonale2

ou de faire intervenir les arctangentes, par exemple

angle1 / angle2 = arctan(diagonale1 / 2f) / arctan(diagonale2 / 2f)

ce qui est nettement moins pratique à évaluer de tête.

La distance focale équivalente

Supposons que l'on a un capteur de référence dont la diagonale est dref (par exemple un capteur 24×36 mm) et un objectif de distance focale f.

Lorsqu'on utilise cet objectif avec un autre capteur dont la diagonale est d, on a un angle de champ θ défini par

tan(θ / 2) = d / f

On veut alors savoir quelle serait la distance focale équivalente feq d'un objectif fictif donnant le même angle de champ θ si on utilisait cet objectif fictif avec le capteur de référence. On a

tan(θ / 2) = d / f =  dref / feq

et donc

feq = f × dref / d

(cette valeur est correcte si f est négligeable par rapport à l et par rapport à ld / dref).

Comparée à l'angle de champ, le calcul de la distance focale équivalente n'est pas limitée à des angles de champ suffisamment petits. La distance focale équivalente fait cependant appel à un facteur caché, la taille du capteur de référence.

[ Posted on September 10th, 2019 at 22:47 | 3 comments | ]

Monday, August 12th, 2019

Roulette et Martingale

Translation: [ Google | Babelfish ]

Categories: [ Science ]

Supposons qu'on joue à la roulette dans un casino. La roulette est honnête, donc tous les chiffres ont la même probabilité de sortir. Cette roulette comporte 18 numéros rouges, 18 numéros numéros noirs et un zéro qui n'est ni rouge ni noir. Les paris se font par tranche de 1 Euro, et sont limités à 100 Euros. On entre au casino avec 127 Euros en poche, et on parie toujours sur le rouge et on ne réinvestit pas ce qu'on a gagné, c'est à dire qu'on arrête de jouer une fois qu'on a perdu les 127 Euros de départ.

À chaque jeu on a donc p = 18/37 chances de gagner (soit un peu moins d'une chance sur deux).

Si on fait n = 127 paris de 1 Euro, la probabilité de gagner k fois (0 <= k <= n) est de P(X = k) = Comb( n, k) p k (1 - p) n - k (il s'agit d'une Loi binomiale). Les gains après k victoires sur n parties sont de 2 k - n. On peut donc calculer la somme des P(X = k) pour tous les k tels que 2 k - n > 0, ce qui donne la probabilité de quitter le casino avec en poche plus d'Euros que lorsqu'on y est entré. Cette probabilité est de 0,38, c'est à dire qu'on a 38% de chance de quitter le casino avec au moins 128 Euros et au plus 254 Euros. Cela signifie aussi qu'on a 62% de chance de n'avoir rien gagné, voire perdu tout ou partie des 127 Euros initiaux. En fait, on peut s'attendre, en moyenne, à perdre 3,43 Euros.

Jouer une martingale consiste à doubler la mise si on perd, afin que le gain couvre les pertes passées. La table de roulette ayant une limite de 100 Euros, on peut donc miser au plus m = 7 fois de suite en doublant la mise à chaque jeu, soit 1 + 2 + 4 + 8 + 16 + 32 + 64 = 127 Euros (ça tombe bien, c'est justement la somme qu'on avait en entrant au casino). La probabilité de gagner au bout de i jeux (donc de perdre i - 1 fois puis de gagner une fois) est P(X = i) = (1 - p) i - 1 p (il s'agit d'une Loi géométrique). On peut donc calculer la somme de ces probabilités pour i = 1 … m, qui représente la probabilité de gagner 1 Euro en utilisant la martingale. Cette probabilité est de 1 - (1 - p) m = 0,99. Cela signifie qu'on a 99% de chance de gagner 1 Euro, et donc 1% de chance de perdre 127 Euros. On peut donc s'attendre à perdre en moyenne 0,21 Euro.

Si on joue la martingale plusieurs fois de suite aussi longtemps que l'on ne perd pas, on peut espérer gagner à répétition, mais la probabilité de ne jamais perdre diminue à mesure que l'on joue (il s'agit encore une fois d'une loi géométrique, cette fois avec avec p = 0,99). Si on parvient à gagner en jouant la martingale au moins 128 fois de suite, alors on est certain qu'au moment où la chance tourne et que l'on perd, on ne perd que 127 Euros, et donc qu'on quitte le casino avec en poche au moins 1 euro de plus que lorsqu'on y est entré. Cette probabilité est de 0,298. Cela signifie qu'on a 29,8% de chance de sortir du casino avec au moins 128 Euros en poche. Cela signifie aussi qu'on a 70,2% de chance de perdre entre 0 et 127 Euros. En fait, on peut s'attendre à perdre en moyenne 21,8 Euros. Si on compare cette méthode avec la précédente qui consiste à miser 127 fois 1 Euro sur le rouge, on voit que le chances de ne pas perdre d'argent sont plus élevées si on n'utilise pas la martingale, et que les gains moyens sont moins mauvais lorsqu'on n'utilise pas la martingale (ils sont cependant toujours négatifs, c'est à dire qu'on y perd toujours de l'argent, en moyenne).

Jouer la martingale a cependant une utilité : la probabilité de gain élevé est plus grande avec la martingale que sans. Par exemple la probabilité de gagner au moins 10 Euros est de 11,6% sans martingale et 27,1% avec la martingale. Pour 20 Euros ou plus, la probabilité est d'à peine 1.9% sans martingale et de 24,7% avec la martingale, et on a encore environ 10% de chances de gagner au moins 115 Euros avec la martingale alors que cette probabilité est de moins d'une sur cent milliards sans martingale.

[ Posted on August 12th, 2019 at 07:31 | no comment | ]

Sunday, February 18th, 2018

From How Far to Watch TV?

Categories: [ Science ]

The distance l from the TV depends on the desired horizontal viewing angle a, the screen's diagonal d and the number N of pixels on a row. Additionally, we will assume the screen's aspect ratio r to be 16:9 and the human eye's smallest angle that can be seen e to be 31.5 arcseconds.

Let R be the ratio between the diagonal and the width of the screen:

R = √(1 + 1/r2)

We can then write a relationship between a, N and e:

tan(a / 2) = NR tan(e / 2)    (1)

From (1) we can deduce that for any given e, there is a maximum horizontal viewing angle amax above which pixels can theoretically be distinguished.

For N = 1920 (FullHD), amax = 19.1°. With a 4K screen, amax = 37.2°.

We can also write a relationship between horizontal viewing angle, screen diagonal and distance:

d / l = 2 R tan(a / 2)    (2)

The ideal value or a is a matter of debate, but THX defines a horizontal viewing angle of at least 36° (the screen viewed from the rear seat of a THX theatre), while SMPTE suggests 30°. A value of 20° is also mentioned.

With a 4K screen, amax = 37.2° and (2), we draw that the ideal distance is 1.30 times the screen's diagonal. For example:

  • 132 cm for a 40" screen
  • 165 cm for a 50" screen
  • 197 cm for a 60" screen

With a = 30°, the ideal screen distance is 1.63 times the screen's diagonal. For example:

  • 132 cm for a 32" screen
  • 166 cm for a 40" screen
  • 207 cm for a 50" screen
  • 248 cm for a 60" screen

With a FullHD screen and a compromise angle a = 20°, the ideal distance is 2.47 times the screen diagonal. For example:

  • 201 cm for a 32" screen
  • 251 cm for a 40" screen
  • 314 cm for a 50" screen

EDIT: The value of e is valid for a high contrast between two pixels. Most images do not have such a high contrast, and therefore a value of e = 1 arcminute is a reasonnable assumption in practice.

From this follows that for N = 1920 (FullHD), amax = 35.5° (1.36 times the screen diagonal). With a 4K screen, amax = 65.3° (0.68 times the screen diagonal). This also gives a reasonnable value for standard definition PAL TV with N = 1024, amax = 19.4° (2.55 times the screen diagonal).

That would allow for larger horizonat viewing angles, such as 45° (1.05 times the screen diagonal) or 60° (0.75 times the screen diagonal) when viewing a 4K screen. At such short distances one must however take into account the possible lack of comfort due to the physical closeness of smaller screens.

[ Posted on February 18th, 2018 at 18:41 | no comment | ]

Tuesday, July 12th, 2016

Harmonie et Gamme

Translation: [ Google | Babelfish ]

Categories: [ Science ]

Les musiciens et les mathématiciens se sont cassés les dents pendant des milliers d'années sur la définition de la gamme, des notes, des intervalles et des accords. Ce qui suit est le résultat de mes refexions sur la raison dei ces difficultés.

Soit une note, appelée C1, de fréquence f. Lorsqu'on joue cette note sur un instrument, des harmoniques de fréquence 2 f, 3 f… sont produites en même temps. L'octave C2 (de fréquence 2 f) est donc naturellement en harmonie avec C1. Lorsqu'on joue en même temps C1 et C2 de même niveau sonore, les deux fréquences interfèrent et produisent un son de fréquence égal à la moyenne de C1 et C2, donc 3/2 f, que l'on appellera G1. Ce nouveau son est modulé par une fréquence perçue 2 f - f = f, trop élevée dans la pratique pour entendre le battement. L'intervalle de fréquence C1 – G1 est appelé une quinte juste.

De la même manière, lorsqu'on joue en même temps C1 et G1 de même niveau sonore, on obtient une interférence de fréquence égale à la moyenne des fréquences de C1 et G1, soit 5/4 f. On appelle cette nouvelle note E1. L'intervalle C1 – E1 est appelé une tierce majeure, et l'accord C1 – E1 – G1 est appelé accord majeur.

En théorie de la musique, on peut traverser toutes les notes de la gamme en partant de C1 et montant d'une quinte, puis en répétant l'opération. Ainsi, on passe de C1 à G1, puis en montant encore d'une quinte on passe de G1 à D2, puis A2, puis E3 et B3. Enfin, en montant d'une quinte depuis F0, on arrive à C1. On pourrait donc imaginer calculer les fréquences de D, F, A et B de cette manière:

  • En augmentant F0 (fréquence 2/3 f) d'une quinte (donc en multipliant par 3/2) on arrive bien à C1 (fréquence f) ; ceci donne une fréquence de 4/3 f pour F1.
  • G1 (3/2 f) augmenté d'une quinte (multiplié par 3/2) donne D2 (9/4 f), et donc D1, une octave plus bas, a une fréquence de 9/8 f.
  • D1 augmenté d'une quinte donne de la même manière A1 (27/16 f).
  • A1 augmenté d'une quinte donne E2 (81/32 f), donc E1 a une fréquence de 81/64 f.

Mais on a vu plus haut que E1 devait avoir une fréquence de 5/4 f (soit 80/64 f) pour être en harmonie avec C1 et G1 ! C'est donc là que l'édifice commence à s'écrouler : la tierce C1 – E1 n'a pas le même rapport de fréquences que la tierce C2 – E2 ; en d'autres termes, E2 n'est pas exactement une octave au dessus de E1 si on s'en tient à la définition « par quintes ». Les deux définitions de la tierce étant incompatibles, il a fallu trouver une solution.

La manière dont les fréquences des notes sont définies s'appelle le tempérament, et de nombreux tempéraments on été inventés au fil des siècles. La solution retenue depuis le XIXè siècle est le tempérament égal, où tous les demi-tons sont séparés d'un rapport de fréquence égal à 21/12. Ce tempérament donne des accords qui sont tous faux, mais suffisamment peu faux pour que ce ne soit pas gênant.

[ Posted on July 12th, 2016 at 12:43 | no comment | ]

Tuesday, December 2nd, 2014

Compute logarithms in your head

Categories: [ Science ]

Let's consider base 10 logarithms and the basic equality
log(a×b) = log(a) + log(b)
Rounding to two places after the decimal separator, we also start with
log(2) = 0.30
log(10) = 1
Therefore, we have
log(4) = 2⋅log(2) = 0.60
log(8) = 3⋅log(2) = 0.90
log(10) = log(2) + log(5) = 1
log(5) = 0.70
Then a bit more approximation: 81 ≈ 80, therefore
2⋅log(9) ≈ log(10) + log(8)
This gives us
log(9) ≈ 0.95
log(3) = log(9)/2 = 0.48
as well as
log(6) = log(2) + log(3) = 0.78
In the same way, 50 ≈ 49, therefore
log(5) + log(10) ≈ 2⋅log(7)
in other words,
log(7) ≈ 0.85

With more approximations, one will find the logs of more prime numbers without the need for a calculator.

[ Posted on December 2nd, 2014 at 00:02 | no comment | ]

Saturday, June 28th, 2014

Interpreting Probabilities

Categories: [ Science ]

On the radio the other day, I heard a mathematician warning about too hastily interpreting probability results. Here's the example he gave.

Imagine a population of 100,000 people, 100 of which having a rare disease (but not knowing about it) and therefore 99,900 of which not being sick. Imagine moreover there is a test that can detect this disease with a 99% accuracy: this means that the test will on average give a positive result on 100 × 0.99 = 99 of the 100 sick persons and a negative result on 100 × (1 - 0.99) = 1 of them. It will also give a negative result on 99,900 × 0.99 = 98901 non-sick persons and a (false) positive result on 99,900 × (1 - 0.99) = 999 non-sick persons.

This means that out of the 99 + 999 = 1098 persons (out of the whole population) who got a positive result, only 99 actually have the disease. This means that the test indicates, for a random person taken from the whole population, only a 99 / 1098 ≈ 9% probability of being sick. In other words, even if the test is positive, there is still a 91% chance of not being sick! This new result needs to be put into perspective with the probability of being sick before doing the test (0.1%) and after getting a positive test result (9%, i.e., 90 times higher chance of being sick). But it also means that because of the imbalance between sick and non-sick populations, the 1% failure of the test will yield a lot more false positive results among the non-sick population than correct positive results among the sick population.

[ Posted on June 28th, 2014 at 19:38 | no comment | ]

Saturday, April 26th, 2014


Categories: [ Science ]

Before Easter, the supermarket was selling Rölli suprise-eggs, announcing that every fifth egg contained a figurine related to Rölli's universe. This made me wonder: how many eggs you need to buy to ensure that you get at least one such figurine?

The following formula gives the probability (p) of getting at least one Rölli figurine given that one has bought n eggs, and that every k egg contains such a figurine:

p = 1 − (1 − 1/k)n

The answer to the first question is not straightforward, though. To be absolutely sure to get at least one figurine, you need to buy 4/5 of the egg production plus one egg, because there is always an (admitedly slim) chance that the 4/5 of are made entirely of eggs containing something else than a Rölli figurine, and that the 1/5 that is left is made only of eggs containing Rölli figurines. The extra egg that you need to buy is therefore taken from this last 1/5, and is guaranteed to contain a Rölli figurine.

If you are not willing to spend so much time and money tracking and buying most of the egg production, you can trade time and money for a tiny bit of uncertainty. For example, if you can accept to have only 90% chance of getting a Rölli figurine instead of 100%, it is enough to buy 11 eggs. If you want a better chance yet and want to go for 95%, you need to buy 14 eggs. Finally, if you want a 99% chance, you need to get 21 eggs. These values were computed from the formula above, setting k = 5 (“every fifth egg”), p = 0.90 or p = 0.95 or p = 0.99, solving the equation for n and rounding the result to the nearest, larger integer.

It is also worth noticing that if you decide to buy 5 eggs (because every 5th egg contains a Rölli figurine), you have only about 2 in 3 chances of getting a Rölli figurine.

The table below gives the minimum values of n for a given value of k and different probability thresholds. It also gives the ratio n over k, i.e., given a “one in k” probability, how many times k does one need to get to have a probability greater than the thresold. The second column also indicates, given a “one in k” probability, what are you chances of getting what you want if you get k items. Notice that these values grow toward a given, finite limit when k grows larger.

kp(n=k)p≥0.90 (n/k)p≥0.95 (n/k)p≥0.99 (n/k)
20.750 4 (2.000) 5 (2.500) 7 (3.500)
30.704 6 (2.000) 8 (2.667) 12 (4.000)
40.684 9 (2.250) 11 (2.750) 17 (4.250)
50.672 11 (2.200) 14 (2.800) 21 (4.200)
60.665 13 (2.167) 17 (2.833) 26 (4.333)
70.660 15 (2.143) 20 (2.857) 30 (4.286)
80.656 18 (2.250) 23 (2.875) 35 (4.375)
90.654 20 (2.222) 26 (2.889) 40 (4.444)
100.651 22 (2.200) 29 (2.900) 44 (4.400)
200.642 45 (2.250) 59 (2.950) 90 (4.500)
370.637 85 (2.297) 110 (2.973) 169 (4.568)
500.636 114 (2.280) 149 (2.980) 228 (4.560)
1000.634 230 (2.300) 299 (2.990) 459 (4.590)
5000.6321151 (2.302)1497 (2.994)2301 (4.602)
10000.6322302 (2.302)2995 (2.995)4603 (4.603)

One can use this table to find out how many times one needs to play the roulette in a casino to have 95% chance of winning at least once: a european roulette has 37 numbers (k = 37), and the limit of the n/k ratio is about 3; one therefore needs to play about n ≅ 37 × 3 = 111 times (the row for k = 37 indicates the actual value is n = 110).

[ Posted on April 26th, 2014 at 15:40 | no comment | ]

Saturday, December 7th, 2013

The Value of Money in Dodger

Categories: [ Science ]

Terry Pratchett's Dodger is said to take place in the first quarter of the Victorian Era. We'll assume it is the year 1840. According to the National Archive's currency converter, 1 £ in 1840 is worth about 45 GBP in 2005.

Moreover, the same source indicates that with 100 GBP (about 2£ 5s) you could buy 11 days work of a craftsman wages in the building trade, 3 stones (42 lbs) of wool or 1 quarter (28 lbs) of wheat. As a reference, a person's daily needs in energy are equivalent to about 2 lbs of wheat (representing 2950 kcal according to Wikipedia).

These are the coins mentionned in Dodger:

  • Guinea: 21s = 252d (47.25 GBP)
  • Sovereign: 1 £ = 20s = 240d (45 GBP)
  • Crown: 5s = 60d (11.25 GBP)
  • Half-Crown: 2.5s = 30d (5.63 GBP) (about 1.5 lbs of wheat)
  • Shilling: 1s = 12d (2.25 GBP)
  • Sixpence: 1/2s = 6d (1.13 GBP)
  • Groat: 4d (0.75 GBP)
  • Thruppence: 3d (0.56 GBP)
  • Penny: 1d (0.19 GBP)
  • Half-penny: 1/2d (0.10 GBP)
  • Farthing: 1/4d (0.05 GBP)

A day worth of a craftman's wages is therfore 4s, which could buy 2.5 lbs of wheat or 4 lbs of wool.

[ Posted on December 7th, 2013 at 18:06 | no comment | ]

Tuesday, March 5th, 2013

Seven Segment Display

Categories: [ Science ]


I recently discussed with a friend how to read with a computer the 3-digit numbers from a device using seven-segment displays. One solution we came up with was to put a phototransistor in front of each segment, read the seven on/off signals and recognize the digits. I then wondered if it's possible to use less than seven phototransistors per digit.

A minimum of four segments is obviously required, but after a bit of computer-aided experimentation, I found out that only 5 segments are enough: if you remove the lower and the lower-right segments, you can still identify all ten digits.


So with only 15 inputs instead of 21, you can read the 3 digits, using a 16 bit I/O expander (e.g., a MCP23017; this one even has internal 100 kΩ pull-up resistors, so it may be that nothing else than the phototransistors is needed).

[ Posted on March 5th, 2013 at 22:19 | no comment | ]

Saturday, June 16th, 2012

Faut-il courir sous la pluie ?

Translation: [ Google | Babelfish ]

Categories: [ Science ]


Est-on moins mouillé si on court sous la pluie au lieu de marcher ? En modélisant un piéton comme un parallélépipède rectangle de hauteur h et d'épaisseur l, et en notant vm la vitesse du piéton et vp la vitesse de chute de la pluie, on obtient une vitesse v de la pluie relativement au piéton. Le vecteur vitesse fait un angle a avec la verticale. On peut alors calculer que la projection de la surface frontale du piéton dans la direction de ce vecteur est Sh, et la projection correspondant à la surface supérieur est Sl. Le produit de ces surfaces avec la vitesse de la pluie donne le débit d'eau, et si on multiple par le temps mis pour parcourir un trajet d'une longueur donnée d sous la pluie, on obtient le volume d'eau qui s'est déversé sur le piéton. Le détails des calculs est laissé en exercice au lecteur, mais le résultat est V = d(h + l vp / vm).

En conséquence, pour minimiser le volume d'eau V, il faut maximiser que vm / vp >> l / h. Si on considère un piéton de 1,80 m de hauteur et 0,3 m d'épaisseur, il faut que la vitesse du piéton soit plus grande que 1/6 vp. Diverses sources sur le Web ont indiqué que la vitesse de la pluie en arrivant près du sol est d'environ 9 m/s, il faut donc que le piéton se déplace à plus de 1,5 m/s, soit 5,4 km/h.

[ Posted on June 16th, 2012 at 18:35 | no comment | ]

Thursday, March 15th, 2012

Very big, very small

Categories: [ Science ]

Scaling the solar system down to human sizes leads to more interesting comparisons. Let's assume the Earth is the size of a pin head (2 mm in diameter). We then have the following results:

  • A human being living on the surface of the pinhead would be 0.30 nm (the size of two dihydrogen molecules)
  • Mount Everest would be 1.4 μm tall (1/5 of the thickness of a strand of spider's web silk)
  • Geostationary satellites would orbit the pin head at 5 mm from its surface but the International Space Station would be at only 60 μm from the surface (the thickness of a hair)
  • A lightyear would be 1500 km long (the distance between Copenhagen, Denmark and Rome, Italy), so the closest star (Proxima Centauri) would be 6600 km away (distance between Paris, France and New Dehli, India, or between New York, USA and Berlin, Germany)
  • The Oort cloud would be 3000 km in diameter (the distance between Madrid, Spain and Helsinki, Finland, with the volley ball representing the Sun located somewhere near Cologne, Germany)
  • The diameter of the Milky Way (our galaxy) would be equivalent to the distance between the Sun and Earth
  • The whole universe would be 20·1012 km in diameter, that is 2 lightyears (diameter of the Oort cloud, or half the distance to Proxima Centauri)

[ Posted on March 15th, 2012 at 10:06 | no comment | ]

Wednesday, March 14th, 2012

The Solar system is big!

Categories: [ Science ]



The solar system is big, that's well known. But how big, exactly?

Let's assume the Sun is the size of a volleyball (about 21 cm in diameter). We would then have the following relative planet sizes and distances to the ball:

  • Mercury: 1 mm diameter (a small pin head), 9 m from the ball (a bus)
  • Venus: 2 mm diameter (a pin head), 16 m from the ball (a semi-trailer truck)
  • Earth: 2 mm diameter (a pin head), 23 m from the ball
  • Mars: 1 mm diameter (a small pin head), 35 m from the ball (a blue whale)
  • Jupiter: 22 mm diameter (a walnut), 120 m from the ball (maximum length of a football/soccer field)
  • Saturn: 19 mm diameter (a smaller walnut), 220 m from the ball (one TGV train)
  • Uranus: 8 mm diameter (a cherry's kernel), 460 m from the ball (a double TGV train)
  • Neptune: 8 mm diameter (a cherry's kernel), 700 m from the ball (length of the Avenue de l'opéra, Paris, France)

By comparison, the Moon would be 0.5 mm in diameter (a grain of sand) and 6 cm from the pin head (the length of the little finger).

[ Posted on March 14th, 2012 at 23:20 | no comment | ]

Friday, March 9th, 2012

Large Numbers

Categories: [ Science ]


My daughter asked me yesterday what is the largest number I know. The answer was “a Googolplex”, which is 10googol with googol = 10100.

While you can write a googol on a sheet of paper (it's a one followed by 100 zeros), you cannot write a googolplex on paper. Or can you? how much paper do you need for that?

Let's assume you can write 10 000 digits on one sheet of A4 paper. You therefore need 1096 sheets of paper. One tree can produce 10 000 sheets of paper, and there are about 1012 trees on Earth. You'd need 1080 Earths to provide all the paper. Not going to work.

Now let's see if there's even enough matter in the universe to make all this paper: assuming that all the matter in the universe can be converted to paper, is there enough of it? Paper is made of cellulose, chains of D-glucose, the latter weighing 128 g/mol. So a 5 g sheet of A4 paper contains about 2.5·1022 molecules of linked D-glucose, each of which is made of 128 hadrons (protons and neutrons). A sheet of paper is therefore made of 3·1024 hadrons, which is almos the same thing as an atom of hydrogen. The universe contains roughly 1080 atoms, which translate roughly as 1056 sheets of paper. We'd need 1040 universes to make all the needed paper. Not going to work either.

That was a very big number.

[ Posted on March 9th, 2012 at 11:44 | 1 comment | ]

Tuesday, January 31st, 2012

Temperature Histogram

Categories: [ Science ]


I have collected slightly over 10 years worth of hourly tempertature readings in Jyväskylä. The sources of temperature over the years have been the University of Jyväskylä's weather station, the METAR data for Jyväskylä's airport and the Finnish meteorological service which is currently being used; these services together were on average available 98.7% of the time.

The other day I wondered what a histogram of those values would look like, and here it is. The numbers have been rounded to the their closest integer values, and range from -35 °C to +34 °C. One disproportionately large peak large can be observed at 0 °C, probably due to melting ice/freezing water remaing in the sensor's surface and keeping it at exactly that temperature while the air around it would be slightly different (if you have a better explanation, don't hesitate to leave a comment!). Surprisingly, there is a second peak at 13 °C (explanations are welcome too!).

Finally, the average temperature is 4.0 °C, which is consistent wit the average minima (-1.4 °C) and maxima (7 °C) values given on Wikipedia's article about Jyväskylä.

[ Posted on January 31st, 2012 at 22:54 | no comment | ]

Thursday, August 18th, 2011

Journalisme du dimanche

Translation: [ Google | Babelfish ]

Categories: [ Grumbling | Science ]

Soit une dépèche AP Un Suédois essayait de fractionner des atomes dans sa cuisine (via fr.news.yahoo.com) commençant par (le gras a été rajouté)

« Un Suédois arrêté pour avoir tenté de réaliser une fission nucléaire dans sa cuisine »

Cette dépèche, reprise par Zignonet, devient Il essayait de construire un réacteur nucléaire dans sa cuisine (via fr.news.yahoo.com encore une fois) et commence par (le gras a été rajouté)

« Un Suédois de 31 ans a été arrêté fin juillet pour avoir fait une fission nucléaire à son domicile »

On n'a pas besoin d'un doctorat en physique nucléaire pour comprendre que tenter de réaliser et faire ne signifient pas la même chose. Il faut avoir appris à lire pour comprendre la différence, certes, c'est peut-être là que le bât blesse.

Un peu plus loin, AP indique

« il avait provoqué une petite fusion sur sa cuisinière »

que Zigonet interprète comme

« il avait réussi à provoquer une fission nucléaire dans sa cuisine »

Un élève de l'école primaire est capable de reconnaître que les mots fusion et fission ne sont pas les mêmes, même s'ils n'y a que deux lettres de différence entre les deux. Tout le monde conviendra que par exemple lapin et clampin, bien que n'ayant que deux lettres de différence, ne signifient pas la même chose : l'un est un adorable rongeur aux longues oreilles, tandis que l'autre non.

Les cours de physique atomique du lycée permettent de savoir que la seule fusion nucléaire obtenue sur Terre à ce jour concerne des atomes d'hydrogène, et que si l'apprenti Oppenheimer avait obtenu une fission nucléaire, la police n'aurait retrouvé personne à arrêter (mais les problèmes de surpopulation à Stockholm auraient été promptement résolus). Avec les histoires récentes de Fukushima, tout le monde devrait cependant savoir ce qu'est la fusion du combustible nucléaire (qui n'est pas la même chose que la fusion nucléaire), c'est à dire que ce dernier, produisant naturellement de la chaleur, peut fondre sous l'effet de cette dernière. On peut donc supposer que c'est ce qui s'est passé dans cette cuisine. AJOUT en lisant le blog du bonhomme je ne suis même pas sûr qu'il se soit agit de ça. Il a fait chauffer de l'americium, du radium et du beryllium dans de l'acide sulfurique et ça a explosé, probablement sous l'effet de l'ébullition de l'acide (qui bout à 337 °C, alors que les trois premiers fondent à 1176, 700 et 1287 °C respectivement).

En conclusion, quelques mots de différence changent complètement le sens d'un texte, et ce n'est pas parce qu'on publie des trucs sur le Web qu'on est un journaliste.

[ Posted on August 18th, 2011 at 17:41 | no comment | ]

Monday, October 19th, 2009

Sauna Physics

Categories: [ Science ]

We discussed sauna physics during this morning's coffee break, especially whether one should throw cold or hot water on the stones.

Here are the physical values:

In other words, you need 355 J to heat 1 g of water from a cold 15 °C to 100 °C, and another 2,260 J to evaporate it; the heating part represents only 14% of the total required energy. If you use hot water (60 °C), you need 167 J plus 2,260 J; the heating here represents 7% of the energy. The relative difference in required energy between cold water and hot water is less than 8%; accoring to my former chemistry teacher, if it's less than 10%, it's negligible.

Additionally, if we consider that 1 kg of burning wood produces roughly 10 MJ (from Wikipedia's Wood fuel article; it depends very much on its moisture content and the efficiency of the furnace, but in ideal conditions you can get 16 MJ out of it), we need about 25 g of wood to evaporate 0.1 L of cold water. Given that I put about 5 kg of wood into the furnace and throw well below a litre of water to the stones, the temperature of the water won't really matter.

The sudden cooling down of the surface of the stones from 300-350 °C to 100 °C when pouring water on them may however have an impact on their capacity to absorb and regulate the heat.

[ Posted on October 19th, 2009 at 17:30 | no comment | ]

Saturday, October 3rd, 2009

Sähkönkulutus 2

Translation: [ Google ]

Categories: [ Science ]

Mitattiin uuden, A-luokkaisen pesukoneen sähkönkulutus:

  • Säästöohjelma, 40 °C: 150 min, 0.79 kWh, max 2.3 kW

[ Posted on October 3rd, 2009 at 18:53 | no comment | ]

Wednesday, July 22nd, 2009

Thunderstorm Tracking

Categories: [ Science ]

Zalama.net tracks where, around Muurame, lightning has struck.

http://www.zalama.net/nexstorm_muu.png http://www.zalama.net/wasp2.png

[ Posted on July 22nd, 2009 at 18:06 | no comment | ]

Thursday, May 21st, 2009


Translation: [ Google | Babelfish ]

Categories: [ Science ]

C'est la saison des allergies, et je me demandais si je devais refaire le plein de cétirizine, ou de trouver un remplaçant. Parmi les choix on trouve de la lévocétirizine et de la loratadine. La lévocétirizine n'est que l'énantiomère actif de la cétirizine et a exactement les mêmes effets, mais elle coûte simplement plus chère. La loratadine (et son métabolite, la desloratadine) sont aussi disponibles (la desloratadine seulement sur ordonnance), mais elles semblent moins efficace que la cétirizine (Day, Briscoe and Widlitz, Journal of Allergy and Clinical Immunology, 1998 May;101(5):638-45). Les énantiomères actifs et les métabolites sont censés avoir moins d'effets secondaires que les composés d'origine, mais la cétirizine ayant peu d'effets secondaires (je n'en ai remarqué aucun), il n'y a pas de raison de les utiliser. Je reste donc à la cétirizine.

[ Posted on May 21st, 2009 at 17:30 | no comment | ]

Thursday, April 23rd, 2009


Translation: [ Google | Babelfish ]

Categories: [ Science ]

Je viens de découvrir un site qui permet d'évaluer l'étendue de son vocabulaire: Mes mots. Le test consiste à marquer les mots dont on pense être capable de donner la définition, sur une liste de cent mots choisis au hasard parmi 43 000. Après cinq tests aléatoires, mon vocabulaire est estimé à 38575 mots (avec un écart-type de 1857 mots), ce qui représente presque 90% du lexique. Les résultats des tests étaient 39798, 34997, 38863, 40210 et 39007 mots.

Site trouvé à partir de lexique.org.

[ Posted on April 23rd, 2009 at 10:04 | no comment | ]

Saturday, January 31st, 2009


Translation: [ Google | Babelfish ]

Categories: [ Science ]

La préparation du yaourt est, en théorie, très simple: on mélange du lait et du yaourt, on maintient à une température comprise entre 40 et 45 °C pendant 3 – 4 heures, et le tour est joué. Donc en théorie, une yaourtière est une boite qui maintient la préparation à une température donnée.


Pour des raisons pratiques, j'ai décidé de préparer mon yaourt en pot d'un litre récupéré de yaourt industriels. J'ai toute une collection de pots vides dans la cuisine, ça peut toujours servir.


Ma première idée a été de fabriquer une boite isotherme (en polystyrène extrudé de 30 mm d'épaisseur et collée) afin de conserver le lait chauffé à 45 °C à cette température assez longtemps pour que le lait se transforme. Malheureusement, l'expérience a montré que la boite n'est pas suffisamment isotherme pour ça. Des mesures ont montré qu'un litre d'eau à 43 °C perdait approximativement 3 °C par heure les deux premières heures. Un rapide calcul a montré que la boite émettait une puissance de 3 W.


Je me suis donc décidé à construire un système de chauffage d'approximativement 3 W. Après avoir étudié la possibilité d'utiliser du fil de nichrome (il aurait fallu une trop grande longueur de fil très fin, donc difficile à manipuler), je me suis rabattu sur l'utilisation d'une ampoule électrique classique. Une ampoule de 100 W (sous 230 V) a une résistance à froid d'environ 40 Ω, et devrait donc fournir environ 4 W sous 12 V.

Les premières expériences ont montré que l'ampoule chauffe en surface à environ 60 °C du coté du filament, et nettement moins de l'autre coté. Le pot de yaourt est en polypropylène qui fond à 140 °C, donc le pot ne risque rien.


L'ampoule est placée au fond de la boite, sous un support destiné à recevoir le pot de yaourt. Le support est constitué du fond d'un autre pot de yaourt d'un litre, renversé et découpé pour en faire un trépied. Le fond de ces pots est convexe, j'ai donc dû découper le centre afin que l'ampoule ne touche pas le fond.


La boite avait été conçue à l'origine pour contenir le pot d'un litre plus une boite de mascarpone de 2 dL qui devait contenir l'amorce de yaourt pour la prochaine fournée. En fait, il ne faut pas fermer les pots, donc impossible d'empiler simplement la petite boite sur le pot. Mais ça a laissé presque suffisamment d'espace pour placer l'ampoule sous le pot et fermer le couvercle à moitié.

[ Posted on January 31st, 2009 at 12:02 | 18 comments | ]

Wednesday, December 10th, 2008


Translation: [ Google ]

Categories: [ Science ]

Vedenkulutuksen jälkeen, mittaan sähkönkulutusta:

  • Pesukone (puuvillaohjelma, lisähuuhtelu, 40 °C): 78 min, 0.62 kWh, max 2 kW

[ Posted on December 10th, 2008 at 21:26 | 1 comment | ]

Wednesday, December 3rd, 2008


Translation: [ Google ]

Categories: [ Science ]

Uusi vesimittari inspiroi mittaamaan vedenkulutusta:

  • Vessan vetäminen: 7 L
  • Tiskikone (ilman esipesua): 18 L
  • Pesukone (puuvillaohjelma, lisähuuhtelu): 74 L
  • Suihku: 85 L

[ Posted on December 3rd, 2008 at 23:14 | no comment | ]

Tuesday, November 4th, 2008

Bensan hinta

Translation: [ Google ]

Categories: [ Science ]

Bensa maksaa Keljon Shell Expressillä 1,294 EUR, mutta Palokassa se maksaa vain 1,259 EUR Palokan Neste Oil Expressillä. Matka Palokkaan ja takaisin on noin 20 km. Auto käyttää noin 7 L/100km, siis 1,4 L bensaa, joka maksaisi 1,76 EUR. Tankkaan 35 L, hinta ero on siis 0,88 EUR. Se ei maksaa vaivaa. (datan lähde: polttoaine.net).

[ Posted on November 4th, 2008 at 22:43 | 1 comment | ]

Thursday, October 30th, 2008

Heure solaire

Translation: [ Google | Babelfish ]

Categories: [ Science ]


Jyväskylä se situe à 62.22°N, 25.73°E. Le graphique ci-contre représente la durée du jour en 2008 en fonction de la date (du 1er janvier au 31 décembre). Le défaut aux alentours de l'équinoxe est probablement dû à une problème d'arrondi et au fait que les calculs prennent l'équinoxe pour point de départ. Je ne m'attendais pas à ce que la courble soit aussi linéaire à distance des solstices, ni qu'elle soit aussi « pointue » aux solstices.


Ici, les heures de lever et de coucher du soleil. Le décalage fin mars et fin octobre sont dûs au passage à l'heure d'été et au retour à l'heure d'hiver.


Beaucoup plus étrange ici, le midi solaire (mi-chemin entre le lever et coucher du soleil) n'est pas à un intervalle de temps constant du midi civil comme on pourrait s'y attendre. Encore plus étrange, cette courbe a deux maxima et deux minima qui ne sont pas au même niveau et qui ne correspondent pas à des dates clés. Les points d'inflexion, en revanche, semblent situés aux solstices et aux équinoxes.


Ici la même courbe sans le passage à l'heure d'été pour davantage de lisibilité. La forme en « escalier » de la courbe est dûe à la précision des valeurs calculées, qui est limitée à la minute. On remarque en particulier que le décalage entre les midis solaire et civil varie entre 0 et 32 minutes, avec un décalage moyen d'environ 18 minutes lus sur le graphe (17 minutes par calcul si on considère le décalage en longitude entre Jyväskylä et le centre du fuseau horaire à 30.00°E).

[ Posted on October 30th, 2008 at 23:42 | no comment | ]

Saturday, October 25th, 2008

Courbes de niveau

Translation: [ Google | Babelfish ]

Categories: [ Science ]

J'ai reçu aujourd'hui (enfin hier, vu l'heure qu'il est) la carte topographique au 1/20 000è de Jyväskylä que j'avais commandée mercredi soir. Service rapide !

Voici donc deux courbes de niveau pour un trajet Hinkalo — Agora, en voiture et à vélo (les chemins parcourus sont totalement différents). Le dénivelé total est de 93 m.


Le trajet en voiture est long de 4680 m. Du point de départ au rond point de Keljonkeskus situé entre les deux supermarchés, le dénivelé est de 80,5 m pour une distance parcourue de 2000 m, ce qui fait une déclivité moyenne de 4%, mais avec des pointes à 14% sur Tuulimyllyntie et 13% sur Myllyjärventie.


Le trajet en vélo est long de 3380 m. Du point de départ jusqu'au petit tunnel, la déclivité moyenne est de 5,7%, mais avec peu de variation sur ces 1100 m de trajet.

[ Posted on October 25th, 2008 at 00:48 | no comment | ]

Tuesday, October 21st, 2008

Consommation d'une voiture, la suite

Translation: [ Google | Babelfish ]

Categories: [ Science ]

Suite de l'épisode précédent.

J'ai passé aujourd'hui un certain temps à discuter de mécanique auto avec Henrik et en particulier de la consommation rélle d'une voiture. On a fini par en revenir au problème de trouver la courbe de consommation spécifique des moteurs de nos voiture, mais il semble que les constructeurs tiennent à garder ces informations secrètes… En revanche, Henrik a trouvé un article en allemand de Helmut Tschöke et Hanns-Erhard Heinze publié dans le Magdeburger Wisseschaftsjournal de 2001 qui compare les consommations de divers types de moteurs (essence, essence à injection directe, diesel à injection directe pour voitures personnelles et les véhicules utilitaires).

Les auteurs indiquent entre autres qu'étant données les masses volumiques et les densités énergétiques différentes entre l'essence et le diesel, à consommations énergétiques égales, le moteur diesel a une consommation moyenne inférieure. Cependant le diesel produit davantage de CO2 que l'essence, à consommations égales. Mais les consommations moyennes des voitures à essence et diesel ne sont justement pas égales.

Un peu plus loin, ils se demandent s'il est possible de construire une voiture qui consomme seulement 1 ou 2 L/100 km (la Volkswagen Lupo 3L a été conçue pour ne consommer que 3 L/100 km en moyenne) et concluent que ce n'est pas possible, mais qu'on pourrait descendre à 2 ou 2,3 L/100 km.

Les auteurs introduisent finalement la notion de facteur de mobilité (FM), égal au produit de la consommation par le temps nécessaire à la parcourir divisé par le nombre de personnes transportées. Sur un trajet de 300 km, le piéton a un FM de 30, le vélo 7, la voiture 7,8, le car 1,4, le train 1,6 et l'avion 5,5 (le piéton consomme l'équivalent de 0,5 L/100 km et le vélo 0,35). Ma voiture a un FM de 6,1 avec 4 passagers et 8,1 avec 3 passagers.

[ Posted on October 21st, 2008 at 22:39 | no comment | ]

Friday, October 10th, 2008

Morning Temperature at 8 AM

Categories: [ Science ]


I've been thinking how to automatise the process of setting the car engine's heating time in the morning depending on the outside temperature. Since heating is not overly expensive, I've decided that a cheap timer switch should do the trick. As to how long the engine should be heated… Well, statistics may help here. The graphs on the left represents the average temperature in the morning at 6 and at 8 over the past 6 years (2002 – 2008). From the graph, it's easy to see that there are clear periods where the temperature is between this and that limit.


In a nutshell and in month-day format:

  • 01-01 – 03-01: 2 hours
  • 03-01 – 03-25: 1 hour
  • 03-25 – 05-01: 30 minutes
  • 05-01 – 10-01: no heating
  • 10-01 – 12-15: 30 minutes
  • 12-15 – 12-31: 1 hour

This represents 214 hours of heating in the year, amounting to 6.90 EUR (with a 400 W heater, and a rate of 0.08 EUR/kWh). With the additional inside heater (add 950 W), it costs 23.30 EUR. This is almost 40% more expensive than the optimised calculation in the previous article, but a device combining termperature sensor with a clock is hard to find and will cost 50 to 100 EUR, when a mechanical clock switch can be found for 5 EUR.

[ Posted on October 10th, 2008 at 23:55 | 1 comment | ]

Chauffage de la voiture

Translation: [ Google | Babelfish ]

Categories: [ Science ]

On conseille de chauffer la voiture si la température de l'air descend en dessous de 5 °C. La durée de chauffage varie en fonction de la température:

  • 5 °C à -5 °C: 30 minutes
  • -5 °C à -10 °C: 60 minutes
  • < -10 °C: 120 minutes

En 2007, la température le matin à 8 heures était:

  • < 5 °C et > -5 °C pendant 159 jours
  • < -5 °C et > -10 °C pendant 23 jours
  • < -10 °C pendant 33 jours

Ceci nous fait 168 heures de chauffage sur l'année (en comptant les week-ends), donc à 400W de puissance de chauffage et à 0,08 EUR le kWh, ça nous fait 5 EUR par an. Si on rajoute le chauffage de l'habitacle (950W), on arrive à 18 EUR par an.

[ Posted on October 10th, 2008 at 08:13 | no comment | ]

Tuesday, September 16th, 2008

Graphical Meteorological Data for Europe

Categories: [ Science ]

findlocalweather.com has “real-time” graphical data about temperature, humidity, pressure and wind speed for Europe (and other parts of the World too). Nice.

Links to maps for Temperature, Humidity, Pressure, Wind speed.

[ Posted on September 16th, 2008 at 14:21 | no comment | ]

Thursday, August 28th, 2008

Matériaux et température, suite

Translation: [ Google | Babelfish ]

Categories: [ Science | Tea ]

Deuxième série de mesures de la température d'une théière qui refroidit, cette fois-ci avec un thermomètre infrarouge Fluke 561 HVACPro. J'ai utilisé les mêmes récipients : un gobelet un argent massif et un gaiwan en porcelaine. Les mesures sont faites sans couvercle.

Conditions initiales

  • température de la pièce (et donc des récipents) : 23 °C
  • température de l'eau au sortir de la bouilloire : 95 °C
  • volume d'eau versé dans chaque récipient : 1 dL



Pour chaque récipient, on donne le matériau dans lequel il est fabriqué, la masse du-dit récipient, la chaleur massique du matériau, puis la température de l'eau au bout de 10 secondes, 30 secondes, puis toutes les 30 secondes jusqu'à cinq minute. Les mesures ont été arrondies au degré près dans le tableau, mais pas pour le graphe.

Matériau Masse 10 s 30 s 60 s 90 s120 s150 s180 s210 s240 s270 s300 s
GobeletArgent 100 g80 °C79 °C77 °C75 °C75 °C71 °C73 °C70 °C71 °C69 °C67 °C
Gaiwan Porcelaine 82 g76 °C76 °C73 °C70 °C68 °C68 °C68 °C67 °C66 °C64 °C64 °C


La mesure prise par le thermomètre dépend de la réflexivité de la surface et de sa couleur. De plus, si les mesures sont rapides, elles fluctuent beaucoup (ce serait dû à la présence de vapeur d'eau au dessus de la surface de l'eau chaude), parfois de plusieurs degrés.

En comparant avec les chiffres de l'expérience précédente, on remarque que les mesures donnent des valeurs nettement plus basses.

[ Posted on August 28th, 2008 at 00:06 | no comment | ]