Skip to main content
Global

14.0 : B | Phrases, symboles et formules mathématiques

  • Page ID
    191398
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Phrases anglaises écrites mathématiquement

    Quand les Anglais disent : Interprétez cela comme suit :
    \(X\)est d'au moins 4. \(X \geq 4\)
    Le minimum\(X\) est de 4. \(X \geq 4\)
    \(X\)n'est pas inférieur à 4. \(X \geq 4\)
    \(X\)est supérieur ou égal à 4. \(X \geq 4\)
    \(X\)est au plus égal à 4. \(X \leq 4\)
    Le maximum\(X\) est de 4. \(X \leq 4\)
    \(X\)n'est pas supérieur à 4. \(X \leq 4\)
    \(X\)est inférieur ou égal à 4. \(X \leq 4\)
    \(X\)ne dépasse pas 4. \(X \leq 4\)
    \(X\)est supérieur à 4. \(X > 4\)
    \(X\)est supérieur à 4. \(X > 4\)
    \(X\)dépasse 4. \(X > 4\)
    \(X\)est inférieur à 4. \(X < 4\)
    Il y en a\(X\) moins de 4. \(X < 4\)
    \(X\)est 4. \(X = 4\)
    \(X\)est égal à 4. \(X = 4\)
    \(X\)est identique à 4. \(X = 4\)
    \(X\)n'est pas 4. \(X \neq 4\)
    \(X\)n'est pas égal à 4. \(X \neq 4\)
    \(X\)n'est pas identique à 4. \(X \neq 4\)
    \(X\)est différent de 4. \(X \neq 4\)
    Tableau B1

    Les symboles et leur signification

    Chapitre (1er utilisé) symbole Parlé Sens
    Échantillonnage et données \(\sqrt{ } \) La racine carrée de même
    Échantillonnage et données \(\pi\) Pi 3.14159... (un numéro spécifique)
    Statistiques descriptives \(Q_1\) Quartile 1 le premier quartile
    Statistiques descriptives \(Q_2\) Quartile deux le deuxième quartile
    Statistiques descriptives \(Q_3\) Quartile trois le troisième quartile
    Statistiques descriptives \(IQR\) intervalle interquartile \(Q_3 – Q_1 = IQR\)
    Statistiques descriptives \(\overline X\) \(x\)-bar moyenne de l'échantillon
    Statistiques descriptives \(\mu\) mu moyenne de la population
    Statistiques descriptives \(s\) s écart type de l'échantillon
    Statistiques descriptives \(s^2\) \(s\)au carré variance de l'échantillon
    Statistiques descriptives \(\sigma\) sigma écart-type de population
    Statistiques descriptives \(\sigma^2\) sigma carré variance démographique
    Statistiques descriptives \(\Sigma\) sigma majuscule somme
    Sujets de probabilité \(\{ \}\) parenthèses définir la notation
    Sujets de probabilité \(S\) S espace d'échantillonnage
    Sujets de probabilité \(A\) Événement A événement A
    Sujets de probabilité \(P(A)\) probabilité de A probabilité que A se produise
    Sujets de probabilité \(P(A|B)\) probabilité de A donné B prob. de A survenant étant donné que B est survenu
    Sujets de probabilité \(P(A\cup B)\) prob. de A ou B probabilité de survenance de A ou B ou des deux
    Sujets de probabilité \(P(A\cap B)\) prob. de A et B probabilité que A et B se produisent à la fois (au même moment)
    Sujets de probabilité \(A^{\prime}\) A-prime, complément de A complément de A, pas de A
    Sujets de probabilité \(P(A^{\prime})\) prob. de complément de A même
    Sujets de probabilité \(G_1\) vert au premier choix même
    Sujets de probabilité \(P(G_1)\) prob. de vert au premier choix même
    Variables aléatoires discrètes \(PDF\) fonction de densité probable même
    Variables aléatoires discrètes \(X\) X la variable aléatoire X
    Variables aléatoires discrètes \(X \sim\) la distribution de X même
    Variables aléatoires discrètes \(\geq\) supérieur ou égal à même
    Variables aléatoires discrètes \(\leq\) inférieur ou égal à même
    Variables aléatoires discrètes \(=\) égal à même
    Variables aléatoires discrètes \(\neq\) non égal à même
    Variables aléatoires continues \(f(x)\) f de x fonction de x
    Variables aléatoires continues \(pdf\) fonction de densité probable même
    Variables aléatoires continues \(U\) distribution uniforme même
    Variables aléatoires continues \(Exp\) distribution exponentielle même
    Variables aléatoires continues \(f(x) =\) f\(X\) est égal à même
    Variables aléatoires continues \(m\) m taux de décroissance (pour exp. dist.)
    La distribution normale \(N\) distribution normale même
    La distribution normale \(z\) score Z même
    La distribution normale \(Z\) régime normal standard. même
    Le théorème de la limite centrale \(\overline X\) Barre en X la variable aléatoire X-bar
    Le théorème de la limite centrale \(\mu_{\overline{x}}\) moyenne des barres X la moyenne des barres X
    Le théorème de la limite centrale \(\sigma_{\overline{x}}\) écart type des barres X même
    Intervalle de confiance \(CL\) niveau de confiance même
    Intervalle de confiance \(CI\) intervalle de confiance même
    Intervalle de confiance \(EBM\) erreur liée à une moyenne même
    Intervalle de confiance \(EBP\) limite d'erreur pour une proportion même
    Intervalle de confiance \(t\) Distribution en T des étudiants même
    Intervalle de confiance \(df\) degrés de liberté même
    Intervalle de confiance \(t_{\frac{\alpha}{2}}\) étudiant t avec une zone α/2 dans la queue droite même
    intervalles de confiance \(p^{\prime}\) p-prime pourcentage de réussite de l'échantillon
    intervalles de confiance \(q^{\prime}\) q-prime proportion de défaillance de l'échantillon
    Tests d'hypothèses \(H_0\) H-rien, H-sub 0 hypothèse nulle
    Tests d'hypothèses \(H_a\) H-a, H-sub a hypothèse alternative
    Tests d'hypothèses \(H_1\) H-1, H-sub 1 hypothèse alternative
    Tests d'hypothèses \(\alpha\) alpha probabilité d'erreur de type I
    Tests d'hypothèses \(\beta\) bêta probabilité d'erreur de type II
    Tests d'hypothèses \(\overline{X 1}-\overline{X 2}\) X1-bar moins X2-bar différence dans les moyennes de l'échantillon
    Tests d'hypothèses \(\mu_{1}-\mu_{2}\) mu-1 moins mu-2 différence entre les moyennes de population
    Tests d'hypothèses \(P_{1}^{\prime}-P_{2}^{\prime}\) P1 prime moins P2 prime différence dans les proportions de l'échantillon
    Tests d'hypothèses \(p_{1}-p_{2}\) p1 moins p2 différence dans les proportions de population
    Système de distribution Chi-Square \(X^2\) Carré à clés Carré CHI
    Système de distribution Chi-Square \(O\) Observé Fréquence observée
    Système de distribution Chi-Square \(E\) Prévu Fréquence prévue
    Régression linéaire et corrélation \(y = a + bx\) y est égal à a plus b-x équation d'une droite
    Régression linéaire et corrélation \(\hat y\) chapeau en Y valeur estimée de y
    Régression linéaire et corrélation \(r\) coefficient de corrélation des échantillons même
    Régression linéaire et corrélation \(\varepsilon\) terme d'erreur pour une droite de régression même
    Régression linéaire et corrélation \(SSE\) Somme des erreurs quadrillées même
    F-Distribution et ANOVA \(F\) Rapport F Rapport F
    Tableau B2 Symboles et leur signification

    Des formules

    Des symboles que vous devez connaître
    Population échantillon
    \(N\) Taille \(n\)
    \(\mu\) Moyen \(\overline x\)
    \(\sigma^2\) Écart \(s^2\)
    \(\sigma\) Écart type \(s\)
    \(p\) Proportion \(p^{\prime}\)
    Formules pour ensembles de données uniques
    Population échantillon
    \(\mu=E(x)=\frac{1}{N} \sum_{i=1}^{N}\left(x_{i}\right)\) Moyenne arithmétique \(\overline{x}=\frac{1}{n} \sum_{i=1}^{n}\left(x_{i}\right)\)
    Moyenne géométrique \(\tilde{x}=\left(\prod_{i=1}^{n} X_{i}\right)^{\frac{1}{n}}\)
    \(Q_{3}=\frac{3(n+1)}{4}, Q_{1}=\frac{(n+1)}{4}\) Intervalle interquartile
    \(I Q R=Q_{3}-Q_{1}\)
    \(Q_{3}=\frac{3(n+1)}{4}, Q_{1}=\frac{(n+1)}{4}\)
    \(\sigma^{2}=\frac{1}{N} \sum_{i=1}^{N}\left(x_{i}-\mu\right)^{2}\) Écart \(s^{2}=\frac{1}{n} \sum_{i=1}^{n}\left(x_{i}-\overline{x}\right)^{2}\)
    Formules pour ensembles de données uniques
    Population échantillon
    \(\mu=E(x)=\frac{1}{N} \sum_{i=1}^{N}\left(m_{i} \cdot f_{i}\right)\) Moyenne arithmétique \(\overline{x}=\frac{1}{n} \sum_{i=1}^{n}\left(m_{i} \cdot f_{i}\right)\)
    Moyenne géométrique \(\tilde{x}=\left(\prod_{i=1}^{n} X_{i}\right)^{\frac{1}{n}}\)
    \(\sigma^{2}=\frac{1}{N} \sum_{i=1}^{N}\left(m_{i}-\mu\right)^{2} \cdot f_{i}\) Écart \(s^{2}=\frac{1}{n} \sum_{i=1}^{n}\left(m_{i}-\overline{x}\right)^{2} \cdot f_{i}\)
    \(C V=\frac{\sigma}{\mu} \cdot 100\) Coefficient de variation \(C V=\frac{s}{\overline{x}} \cdot 100\)
    Tableau B3
    Règles de probabilité de base
    \(P(A \cap B)=P(A | B) \cdot P(B)\) Règle de multiplication
    \(P(A \cup B)=P(A)+P(B)-P(A \cap B)\) Règle d'addition
    \(P(A \cap B)=P(A) \cdot P(B) \text { or } P(A | B)=P(A)\) Test d'indépendance
    Formules de distribution hypergéométrique
    \(n C x=\left(\begin{array}{c}{n} \\ {x}\end{array}\right)=\frac{n !}{x !(n-x) !}\) Équation combinatoire
    \(P(x)=\frac{\left(\begin{array}{c}{A} \\ {x}\end{array}\right)\left(\begin{array}{c}{N-A} \\ {n-x}\end{array}\right)}{\left(\begin{array}{c}{N} \\ {n}\end{array}\right)}\) équation de probabilité
    \(E(X)=\mu=n p\) Moyen
    \(\sigma^{2}=\left(\frac{N-n}{N-1}\right) n p(q)\) Écart
    Formules de distribution binomiale
    \(P(x)=\frac{n !}{x !(n-x) !} p^{x}(q)^{n-x}\) Fonction de densité de probabilité
    \(E(X)=\mu=n p\) Moyenne arithmétique
    \(\sigma^{2}=n p(q)\) Écart
    Formules de distribution géométrique
    \(P(X=x)=(1-p)^{x-1}(p)\) Probabilité\(x\) du premier succès. Probabilité : quel\(x\) est le nombre d'échecs avant le premier succès \(P(X=x)=(1-p)^{x}(p)\)
    \(\mu=\frac{1}{p}\) Moyen Moyen \(\mu=\frac{1-p}{p}\)
    \(\sigma^{2}=\frac{(1-p)}{p^{2}}\) Écart Écart \(\sigma^{2}=\frac{(1-p)}{p^{2}}\)
    Formules de distribution de poisson
    \(P(x)=\frac{e^{-\mu_{\mu} x}}{x !}\) équation de probabilité
    \(E(X)=\mu\) Moyen
    \(\sigma^{2}=\mu\) Écart
    Formules de distribution uniformes
    \(f(x)=\frac{1}{b-a} \text { for } a \leq x \leq b\) PDF
    \(E(X)=\mu=\frac{a+b}{2}\) Moyen
    \(\sigma^{2}=\frac{(b-a)^{2}}{12}\) Écart
    Formules de distribution exponentielle
    \(P(X \leq x)=1-e^{-m x}\) Probabilité cumulée
    \(E(X)=\mu=\frac{1}{m} \text { or } m=\frac{1}{\mu}\) Moyenne et facteur de décroissance
    \(\sigma^{2}=\frac{1}{m^{2}}=\mu^{2}\) Écart
    Tableau B4
    La page de formules suivante nécessite l'utilisation des tableaux\(Z\) « », « »\(t\) « »\(\chi^2\), « » ou\(F\) « ».
    \(Z=\frac{x-\mu}{\sigma}\) Transformation en Z pour une distribution normale
    \(Z=\frac{x-n p^{\prime}}{\sqrt{n p^{\prime}\left(q^{\prime}\right)}}\) Approximation normale du binôme
    Probabilité (ignore les indices) Tests d'
    hypothèses
    Intervalles de confiance
    [les symboles entre crochets sont égaux à la marge d'erreur]
    (les indices indiquent les emplacements sur les tables de distribution respectives)
    \(Z_{c}=\frac{\overline{x}-\mu_{0}}{\frac{\sigma}{\sqrt{n}}}\) Intervalle pour la moyenne de la population lorsque le sigma est connu
    \(\overline{x} \pm\left[Z_{(\alpha / 2)} \frac{\sigma}{\sqrt{n}}\right]\)
    \(Z_{c}=\frac{\overline{x}-\mu_{0}}{\frac{s}{\sqrt{n}}}\) Intervalle pour la moyenne de la population lorsque le sigma est inconnu mais\(n>30\)
    \(\overline{x} \pm\left[Z_{(\alpha / 2)} \frac{s}{\sqrt{n}}\right]\)
    \(t_{c}=\frac{\overline{x}-\mu_{0}}{\frac{s}{\sqrt{n}}}\) Intervalle pour la moyenne de la population lorsque le sigma est inconnu mais\(n<30\)
    \(\overline{x} \pm\left[t_{(n-1),(\alpha / 2)} \frac{s}{\sqrt{n}}\right]\)
    \(Z_{c}=\frac{p^{\prime}-p_{0}}{\sqrt{\frac{p_{0} q_{0}}{n}}}\) Intervalle pour la proportion de population
    \(p^{\prime} \pm\left[Z_{(\alpha / 2)} \sqrt{\frac{p^{\prime} q^{\prime}}{n}}\right]\)
    \(t_{c}=\frac{\overline{d}-\delta_{0}}{s_{d}}\) Intervalle de différence entre deux moyennes avec des paires appariées,
    \(\overline{d} \pm\left[t_{(n-1),(\alpha / 2)} \frac{s_{d}}{\sqrt{n}}\right]\) \(s_d\) est l'écart des différences
    \(Z_{c}=\frac{\left(\overline{x_{1}}-\overline{x_{2}}\right)-\delta_{0}}{\sqrt{\frac{\sigma_{1}^{2}}{n_{1}}+\frac{\sigma_{2}^{2}}{n_{2}}}}\) Intervalle de différence entre deux moyennes lorsque les sigmas sont connus
    \(\left(\overline{x}_{1}-\overline{x}_{2}\right) \pm\left[Z_{(\alpha / 2)} \sqrt{\frac{\sigma_{1}^{2}}{n_{1}}+\frac{\sigma_{2}^{2}}{n_{2}}}\right]\)
    \(t_{c}=\frac{\left(\overline{x}_{1}-\overline{x}_{2}\right)-\delta_{0}}{\sqrt{\left(\frac{\left(s_{1}\right)^{2}}{n_{1}}+\frac{\left(s_{2}\right)^{2}}{n_{2}}\right)}}\) Intervalle de différence entre deux moyennes ayant des variances égales lorsque les sigmas sont inconnus
    \(\left(\overline{x}_{1}-\overline{x}_{2}\right) \pm\left[t_{d f,(\alpha / 2)} \sqrt{\left(\frac{\left(s_{1}\right)^{2}}{n_{1}}+\frac{\left(s_{2}\right)^{2}}{n_{2}}\right)}\right] \text { where } d f=\frac{\left(\frac{\left(s_{1}\right)^{2}}{n_{1}}+\frac{\left(s_{2}\right)^{2}}{n_{2}}\right)^{2}}{\left(\frac{1}{n_{1}-1}\right)\left(\frac{\left(s_{1}\right)^{2}}{n_{1}}\right)+\left(\frac{1}{n_{2}-1}\right)\left(\frac{\left(s_{2}\right)^{2}}{n_{2}}\right)}\)
    \(Z_{c}=\frac{\left(p_{1}^{\prime}-p_{2}^{\prime}\right)-\delta_{0}}{\sqrt{\frac{p_{1}^{\prime}\left(q_{1}^{\prime}\right)}{n_{1}}+\frac{p_{2}^{\prime}\left(q_{2}^{\prime}\right)}{n_{2}}}}\) Intervalle de différence entre deux proportions de population
    \(\left(p_{1}^{\prime}-p_{2}^{\prime}\right) \pm\left[Z_{(\alpha / 2)} \sqrt{\frac{p_{1}^{\prime}\left(q_{1}^{\prime}\right)}{n_{1}}+\frac{p_{2}^{\prime}\left(q_{2}^{\prime}\right)}{n_{2}}}\right]\)
    \(\chi_{c}^{2}=\frac{(n-1) s^{2}}{\sigma_{0}^{2}}\) Tests\(GOF\) d'indépendance et d'homogénéité
    \(\chi_{c}^{2}=\sum \frac{(O-E)^{2}}{E}\)
    les valeurs \(O =\)observées et les valeurs\(E =\) attendues
    \(F_{c}=\frac{s_{1}^{2}}{s_{2}^{2}}\) Où se\(s_{1}^{2}\) trouve la variance de l'échantillon, qui est la plus grande des deux variances d'échantillon
    Les 3 formules suivantes permettent de déterminer la taille de l'échantillon avec des intervalles de confiance.
    (remarque :\(E\) représente la marge d'erreur)
    \(n=\frac{Z^{2}\left(\frac{a}{2}\right)^{\sigma^{2}}}{E^{2}}\)
    À utiliser lorsque le sigma est connu
    \(E=\overline{x}-\mu\)
    \(n=\frac{Z^{2}\left(\frac{a}{2}\right)^{(0.25)}}{E^{2}}\)
    À utiliser lorsque vous\(p^{\prime}\) ne connaissez pas
    \(E=p^{\prime}-p\)
    \(n=\frac{Z^{2}\left(\frac{a}{2}\right)^{\left[p^{\prime}\left(q^{\prime}\right)\right]}}{E^{2}}\)
    À utiliser lorsque p'p′ est inconnu
    \(E=p^{\prime}-p\)
    Tableau B5
    Formules de régression linéaire simples pour\(y=a+b(x)\)
    \(r=\frac{\Sigma[(x-\overline{x})(y-\overline{y})]}{\sqrt{\Sigma(x-\overline{x})^{2} * \Sigma(y-\overline{y})^{2}}}=\frac{S_{x y}}{S_{x} S_{y}}=\sqrt{\frac{S S R}{S S T}}\) Coefficient de corrélation
    \(b=\frac{\Sigma[(x-\overline{x})(y-\overline{y})]}{\Sigma(x-\overline{x})^{2}}=\frac{S_{x y}}{S S_{x}}=r_{y, x}\left(\frac{s_{y}}{s_{x}}\right)\) Coefficient\(b\) (pente)
    \(a=\overline{y}-b(\overline{x})\) \(y\)-intercepter
    \(s_{e}^{2}=\frac{\Sigma\left(y_{i}-\hat{y}_{i}\right)^{2}}{n-k}=\frac{\sum_{i=1}^{n} e_{i}^{2}}{n-k}\) Estimation de la variance d'erreur
    \(S_{b}=\frac{s_{e}^{2}}{\sqrt{\left(x_{i}-\overline{x}\right)^{2}}}=\frac{s_{e}^{2}}{(n-1) s_{x}^{2}}\) Erreur type pour le coefficient\(b\)
    \(t_{c}=\frac{b-\beta_{0}}{s_b}\) Test d'hypothèse pour le coefficient\(\beta\)
    \(b \pm\left[t_{n-2, \alpha / 2} S_{b}\right]\) Intervalle pour le coefficient\(\beta\)
    \(\hat{y} \pm\left[t_{\alpha / 2} * s_{e}\left(\sqrt{\frac{1}{n}+\frac{\left(x_{p}-\overline{x}\right)^{2}}{s_{x}}}\right)\right]\) Intervalle pour la valeur attendue de\(y\)
    \(\hat{y} \pm\left[t_{\alpha / 2} * s_{e}\left(\sqrt{1+\frac{1}{n}+\frac{\left(x_{p}-\overline{x}\right)^{2}}{s_{x}}}\right)\right]\) Intervalle de prédiction pour un individu\(y\)
    Formules ANOVA
    \(S S R=\sum_{i=1}^{n}\left(\hat{y}_{i}-\overline{y}\right)^{2}\) Régression par somme des carrés
    \(S S E=\sum_{i=1}^{n}\left(\hat{y}_{i}-\overline{y}_{i}\right)^{2}\) Erreur sur la somme des carrés
    \(S S T=\sum_{i=1}^{n}\left(y_{i}-\overline{y}\right)^{2}\) Somme totale des carrés
    \(R^{2}=\frac{S S R}{S S T}\) Coefficient de détermination
    Tableau B6
    Voici la répartition d'un tableau ANOVA unidirectionnel pour la régression linéaire.
    Source de variation Somme des carrés Degrés de liberté Nombre moyen de carrés \(F\)-ratio
    Régression \(SSR\) \(1\)ou\(k−1\) \(M S R=\frac{S S R}{d f_{R}}\) \(F=\frac{M S R}{M S E}\)
    Erreur \(SSE\) \(n-k\) \(M S E=\frac{S S E}{d f_{E}}\)
    Totale \(SST\) \(n−1\)
    Tableau B7