literat urverzeichnis - springer978-3-663-05690-4/1.pdf · literat urverzeichnis [1] igor alexander...

12
Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing. Chapman and Hall, London, 1990. [2] Roger Barlow. Statistics: A Guide to the Use of Statistical Methods in the Physical Sciences. The Manchester Physics Series. John Wiley & Sons, Chichester, 1989. [3] Roger Barlow. Extended maximum likelihood. Nuclear Instr. and Methods in Phys. Res. A, 297:496, 1990. [4] J. M. Bernardo and A. F. M. Smith. Bayesian Theory. John Wiley and Sons Ltd, 1994. [5] Thomas Beth. Verfahren der schnellen Fourier-Transformation. Teubner, 1984. [6] Volker Blobe!. Unfolding methods in high-energy physics experiments. In CERN School of Computing, 1985. Bericht CERN 85-02. [7] Siegmund Brandt. Statistical and Computational Methods in Data Analy- sis. North Holland, 1976. [8] Siegmund Brandt. Datenanalyse. Wissenschaftsverlag, Mann- heimjLeipzigjWienjZürich, 1992. [9] F. P. Brooks Jr. The Mythical Man-Month. Addison Wesley, 1995. [10] C. G. Broydon. The convergence of a dass of double-rank minimization algorithms. Inst. Maths. Applics., 6, 1970. [11] A. Compagner. Operation al conditions for random-number generation. Physical Review E, 52:5634, 1995. [12] Harald Cramer. Mathematical Theory of Statistics. Princeton University Press, Princeton, 1954. [13] Giulio D'Agostini. Probability and measurement uncertainty in physics a Bayesian primer. Bericht DESY 95-242, 1995. [14] W. C. Davidon. Variable metric methods for minimization. A.E.C. Res. and Dev. Rep. ANL-5990, ANL, 1959. [15] Carl de Boor. A Practical Guide to Splines, volume 27 of Applied Mathe- matical Sciences. Springer-Verlag, 1978. [16] Edsger W. Dijkstra. A note on two problems in connexion with graphs. Numerische Mathematik, 1959.

Upload: phungkhue

Post on 23-Aug-2019

219 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Literat urverzeichnis - Springer978-3-663-05690-4/1.pdf · Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing. Chapman and Hall, London,

Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing.

Chapman and Hall, London, 1990.

[2] Roger Barlow. Statistics: A Guide to the Use of Statistical Methods in the Physical Sciences. The Manchester Physics Series. John Wiley & Sons, Chichester, 1989.

[3] Roger Barlow. Extended maximum likelihood. Nuclear Instr. and Methods in Phys. Res. A, 297:496, 1990.

[4] J. M. Bernardo and A. F. M. Smith. Bayesian Theory. John Wiley and Sons Ltd, 1994.

[5] Thomas Beth. Verfahren der schnellen Fourier-Transformation. Teubner, 1984.

[6] Volker Blobe!. Unfolding methods in high-energy physics experiments. In CERN School of Computing, 1985. Bericht CERN 85-02.

[7] Siegmund Brandt. Statistical and Computational Methods in Data Analy­sis. North Holland, 1976.

[8] Siegmund Brandt. Datenanalyse. Wissenschaftsverlag, Mann-heimjLeipzigjWienjZürich, 1992.

[9] F. P. Brooks Jr. The Mythical Man-Month. Addison Wesley, 1995.

[10] C. G. Broydon. The convergence of a dass of double-rank minimization algorithms. Inst. Maths. Applics., 6, 1970.

[11] A. Compagner. Operation al conditions for random-number generation. Physical Review E, 52:5634, 1995.

[12] Harald Cramer. Mathematical Theory of Statistics. Princeton University Press, Princeton, 1954.

[13] Giulio D'Agostini. Probability and measurement uncertainty in physics ~ a Bayesian primer. Bericht DESY 95-242, 1995.

[14] W. C. Davidon. Variable metric methods for minimization. A.E.C. Res. and Dev. Rep. ANL-5990, ANL, 1959.

[15] Carl de Boor. A Practical Guide to Splines, volume 27 of Applied Mathe­matical Sciences. Springer-Verlag, 1978.

[16] Edsger W. Dijkstra. A note on two problems in connexion with graphs. Numerische Mathematik, 1:269~271, 1959.

Page 2: Literat urverzeichnis - Springer978-3-663-05690-4/1.pdf · Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing. Chapman and Hall, London,

350 LITERATURVERZEICHNIS

[17) W. T. Eadie, D. Drijard, F. E. James, M. Roos, and B. Sadoulet. Statistical Methods in Experimental Physics. North Holland, 1971.

[18) R. Fletcher. A new approach to variable metric algorithms. Comp. J., 13, 1970.

[19) Philip E. Gill, Walter Murray, and Margarete H. Wright. Practical Opti­mization. Academic Press, New York and London, 1981.

[20] D. Goldfarb. A family of variable metric methods derived by variational means. Mathematics 0/ Computation, 24, 1970.

[21) Particle Data Group. Review of particle physics. Physical Review D Par­tides and Fields, 54:1, 1996.

[22) Fritz Gutbrod. A fast random number generator for the intel paragon supercomputer. Computer Physics Communications, 87:291, 1995.

[23) Fritz Gutbrod. On the periods of the ranshi random number generator. Int. Journal 0/ Modern Physics C, 7:909, 1996.

[24) J. Hertz, A. Krogh, and R. G. Palmer. Introduction to the Theory 0/ Neural Computation. Addison-Wesley, 1991.

[25] C. A. R. Hoare. Quicksort. Computer Journal, 5(1):10-15, 1962.

[26) A. Höcker and V. Kartvelishvili. Svd approach to data unfolding. Nud. Instr. and Methods A, 372:469 - 481, 1996.

[27) Kurt Hornik. Approximation capabilities of multilayer feedforward net­works. Neural Networks, 4:251, 1991.

(28) F. James. RANLUX: A Fortran implementation of the high-quality pseu­dorandom number generator of Lüscher. Comp. Phys. Comm., 79:111, 1994.

[29) F. James and M. Roos. Minuit - a system for function minimization and analysis of parameter errors and correlations. Comp. Phys. Comm., 10, 1972.

[30) Brian W. Kernighan and Dennis M. Ritchie. Programmieren in C. Hanser und Prentice-Hall Internat., 1990.

[31) D. E. Knuth. The Art 0/ Computer Programming, Volume II: Seminume­rical Algorithms. Computer Science and Information Processing. Addison Wesley, Reading, Mass., 1981.

[32] E. L. Kosarev and E. Pantos. Optimal smoothing of noisy data by fast Fourier transform. Scientific Instruments, 16:537-543, 1983.

Page 3: Literat urverzeichnis - Springer978-3-663-05690-4/1.pdf · Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing. Chapman and Hall, London,

LITERATURVERZEICHNIS 351

[33] Walter Kraemer. Denkste. Piper, 1998.

[34] J. B. Kruskal, Jr. On the shortest spanning subtree of a graph and the travelling salesman problem. Proceedings of the AMS, 7(1):48-50, 1956.

[35] C. L. Lawson and R. J. Hanson. Solving Least Squares Problems. Prentice Hall, Englewood Cliffs, 1974.

[36] Ludger Lindemann and G. Zeeh. Unfolding by weighting Monte Carlo events. Nucl.lnstr. and Methods A, 354:516, 1994.

[37] Martin Lueseher. A portable high-quality random number generator for lattice field theory simulations. Bericht DESY 93-133, 1993.

[38] Louis Lyons. Statistics for Nuclear and Particle Physicists. Cambridge University Press, Cambridge, 1986.

[39] P. Mazzanti and R. Odorieo. Bottom jet reeognition by neural networks and statistical diseriminants. Zeitschrift für Physik C, 59:273, 1993.

[40] Alexander M. Mood and Franklin A. Graybill. Introduction to the Theory of Statistics. Series in Probability and Statisties. Me Graw-Hill, 1963.

[41] Glenford J. Myers. The Art of Software Testing. John Wiley and Sons, 1979.

[42] Glenford J. Myers. Methodisches Testen von Programmen. Oldenbourg, 1991.

[43] J. A. Neider and R. Mead. Computer Journal, 7:308, 1965.

[44] S. J. Press. Bayesian Statistics: Principles, Models, and Applications. John Wiley and Sons, 1989.

[45] William H. Press, Saul A. Teukolsky, William T. Vetterling, and Brian P. Flannery. Numerical Recipes in FORTRAN. The Art of Scientific Compu­ting. Cambridge University Press, Cambridge, 1992.

[46] S. W. Proveneher. A eonstrained regularization method for inverting data represented by a linear algebraie or integral equation. Comp. Phys. Comm., 27:213-227, 1982.

[47] R. Rojas. Theorie der neuronalen Netze. Springer, 1993.

[48] B. W. Rust and W. R. Burrus. Mathematical Programming and the Nume­rical Solution of Linear Equations. American Elsevier Publishing Company, New York. 1972.

Page 4: Literat urverzeichnis - Springer978-3-663-05690-4/1.pdf · Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing. Chapman and Hall, London,

352 LITERATURVERZEICHNIS

[49J M. Schmelling. The method of reduced cross-entropy. A general approach to unfold probability distributions. Nuclear Instr. and Methods in Phys. Res. A, 340:400, 1990.

[50J H. R. Schwarz. Numerische Mathematik. Teubner, Stuttgart, 1993.

[51J H. R. Schwarz, H. Rutishauser, and E. Stiefel. Numerik symmetrischer Matrizen. Teubner, Stuttgart, 1968.

[52J D. F. Shanno. Conditions of quasi-newton methods for function minimiza­tion. Mathematics of Computation, 24, 1970.

[53J Donald L. Shell. A high-speed sorting procedure. Communications of the ACM, 2(7):30-32, 1959.

[54J Ralph Sinkus. A novel approach to error function minimization for feed forward neural networks. Nucl. Instr. and Meth. in Phys. Res. A, 361:290, 1995.

[55J A. M. Tikhonov and V. Y. Arsenin. Metody resheniya nekorrektnyh zadach (Methods for Solution of ill-posed Problems). Nauka, Moskau, 1979.

[56J I. Vattulainen, T. Ala-Nissila, and K. Kankaala. Physical tests for random numbers in simulation. Physical Review Letters, 73:2513, 1994.

[57] I. Vattulainen, K. Kankaala, J. Saarinen, and T. Ala-Nissila. A comparative study of some pseudorandom number generators. Comp. Phys. Comm., 86:209, 1995.

[58] A. D. Whalen. Detection of Signals in Noise. Academic Press, 1990.

[59J J. W. J. Williams. Algorithm 232: Heapsort. Communications ofthe ACM, 7(6):347-348, 1964.

[60J R. L. Winkler. An introduction to Bayesian inference and decision. Holt, Rinehart and Winston,Inc., 1972.

[61J G. Zech. Comparing statistical data to Monte Carlo simulation - parameter fitting and unfolding. Bericht DESY 95-113, 1995.

Page 5: Literat urverzeichnis - Springer978-3-663-05690-4/1.pdf · Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing. Chapman and Hall, London,

Index

Abhängigkeit logarithmische, 29

Abstandsverteil ung, 117 Abtasttheorem, 18 Äquivalenzklassen, 52 Akzeptanz, 330, 332 Algorithmus, 28

Auswahlsortieren, 37 berechenbare Speicheradressen,

51 binäre Suche, 50 gierig, 55 hashing, 51 Heapsort, 45 Mergesort, 48 quicksort, 42 Rechenzeitbedarf, 28 sequentielles Suchen, 49 Shell's sortieren, 38 Sortieren, 36 Suche, 49

Alphabet, 11 Analogsignale, 18 array, 31 ASCII, 17

B-Spline-Funktion, 313 Basis, 313

Baud, 17 Baum

binärer, 45 heap,45

Bayes' Theorem, 95 Bayes'sche Statistik, 204 Bedingungen

Optimierung, 276, 281

Berechnungswerkzeuge, 24 Bereich

erlaubter, 275 Binärzahlen, 11 Binomialtheorem, 104 Binomialverteilung, 105 BIT,l1 bit, 12 Breit-Wigner Verteilung, 124

Cauchy-Verteilung, 123 charakteristische Funktion, 118 X2 - Verteilung, 119 X2- Test, 286 Cholesky-Zerlegung, 69, 75 Code-Redundanz, 16 Codierung, 13 Codierungstheorem, 14 Cramersche Regel, 58 Crout-Methode, 69, 71

Datei,33 Datenübertragung, 17

mit Fehlern, 17 Datenfeld

n-dimensionales, 31 Datenkomprimierung, 16 Datensatz, 36 Datenstrukturen, 31

abstrakte Datentypen, 32 Baum, 32, 35 Datei,33 Datenfeld, 31, 33 Datenfelder, 33 Datensatz, 33 elementare Operationen, 34

Page 6: Literat urverzeichnis - Springer978-3-663-05690-4/1.pdf · Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing. Chapman and Hall, London,

354

file, 33 Graph, 35 Knoten, 34, 35 link,34 record,33 Stapel, 32 verkettete Listen, 32 Vertex, 35 Warteschlange, 32 Zweig, 35

Determinante, 58 Dienstbibliotheken, 24 Differentiation

numerische, 269, 271 Diskrepanz, 177 Drehung, 82 Drehwinkel, 84

Eigenvektor, 60, 81 Eigenwert, 60, 81 Entfaltung, 330

Diskretisierung, 337 in zwei Intervallen, 333 mit Regularisierung, 341 ohne Regularisierung, 338 periodische Verteilungen, 334

Entropie, 13 Erwartungstreue, 199 Erwartungswert, 100

F-Test, 291 F -Verteilung, 125 Fakultät, 104 Fallanalyse

durchschnittlicher Fall, 30 ungünstigster Fall, 30

Faltung, 151 Faltungsintegral, 330 Fast Fourier Transform, 329 feed-forward Netz, 300 Fehler, 101

asymmetrische, 190, 191 statistische, 178 systematische, 178, 210

Fehler erster Art, 294

INDEX

Fehler zweiter Art, 294 Fehlerfortpflanzung, 145-148, 331 Fehlerfunktion, 115 Fehlerkorrektur, 18 Fibonacci Generator, 157 file, 33 Fishersche Diskriminantenmethode,

299 Fouriertransformation, 18, 328

diskrete, 328 Freiheitsgrade, 120 Funktion

hash,52 unimodal, 245

FWHM,114

Gammafunktion, 104 Gammaverteilung, 116 Ganzzahlen, 20 gap test, 162 Gauß-Verteilung, 111

Faltung, 151 mehrdimensionale, 143 standardisierte, 112 zweidimensionale, 138

Gaußfunktion integrierte, 114

Geburtstage, 96 Geradenanpassung, 224 Gesetz der großen Zahl, 129 Gewichte, 134, 295 Gewichtung, 173 Gleichungssystem

überbestimmtes, 89 Lösung, 69 lineares, 89 schlecht konditioniertes, 91 unbestimmtes, 89

Gleichverteilung, 111, 193 Gleitkommazahlen, 21 Gradient, 240 Graph

gewichteter, 54

Häufungspunkt, 48

Page 7: Literat urverzeichnis - Springer978-3-663-05690-4/1.pdf · Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing. Chapman and Hall, London,

INDEX

hash,51 Hesse-Matrix, 241

Näherung, 269 Histogramme, 288

Anpassung, 194 Huffman-Codierung, 15, 16

IEEE-Norm, 21 importance sampling, 172 Indizierung, 31 Information, 11 Informationsmenge, 11 Integralgleichung

Fredholm, 330 Integration

Monte Carlo, 170 numerische, 175

Interpolation, 305 lineare, 306

Jacobi-Methode, 84 zyklische, 85

Kapazität, 17 eines Datenübertragungskanals,

20 Klassen

Äquivalenz, 52 kleinste Quadrate, 212

Datenkorrektur, 218 Eigenschaften, 213, 219 Gauß-Markoff-Theorem, 220 Gauß-verteilte Daten, 221 Gauß-Verteilung, 213 Geradenanpassung, 224 gewichtete, 222 Gewichtsmatrix, 222 iteratives Vorgehen, 229 Konvergenz, 231 Kovarianzmatrix, 217 linearer Fall, 214 Linearisierung, 230 Maximum-Likelihood, 188, 213 Nebenbedingungen, 232 nichtlinearer Fall, 230

355

Normalgleichungen, 215 Prinzip, 212, 213, 215 Quadratsumme, 218, 220 Reduktion der Matrixgröße, 228 Regression, 227 Residuen, 212, 214, 219, 230 Summe der Quadrate, 212 Wahrscheinlichkeitsdichte, 214,

219, 221 Knoten, 34 Kolmogorov-Smirnov-Test, 291 Kombinatorik, 103 Kondition, 331 Konfidenz, 285 Konfidenzgrenze, 201, 285

für Poisson-Verteilung, 202 Konfidenzniveau, 285 Konsistenz, 331 Kontrollfunktion, 172 Konvergenz, 249, 278, 280 Korrelationskoeffizient, 137 Korrelationstest, 161 Kosten, 295, 296 Kovarianz, 137 Kovarianzmatrix, 142, 191 kritische Region, 292 kritischer Wert, 293

Lückenverteilung, 117 Lagrange-Funktion, 277 Lagrangesche Multiplikatoren, 232,

276 Landau-Verteilung, 183 Likelihood-Funktion, 184 li ne search, 245 Linearisierung, 230 link, 33 Liste, 33 Listen

Vereinigen, 47 Log-Likelihood-Funktion

negative, 185

Matrix, 31, 57 Band-, 60, 78

Page 8: Literat urverzeichnis - Springer978-3-663-05690-4/1.pdf · Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing. Chapman and Hall, London,

356

Diagonal-, 61, 82 Diagonalisierung, 88, 90 Dreiecks-, 68 Einheits-, 57 Inverse, 59, 60, 64-66, 69, 70,

74,78 Inversion durch Partitionierung,

78 Inversion durch Rändern, 81 Jacobi-, 275, 279 Konditionszahl, 242 Multiplikation, 58 nicht-singuläre, 59 orthogonale, 82 orthonormale, 82 positiv definite, 62, 78, 82, 243 projizierte Hesse-Matrix, 276 quadratische, 57 Rang, 92 reguläre, 59 Singulärwertzerlegung, 91 symmetrische, 62, 66, 80, 88 Transfer-, 331 Zerlegung, 68

Matrixelement Diagonal-, 57

Matrixzerlegung, 71 Cholesky, 75

Maximierung, 239 Maximum Likelihood

Invarianzeigenschaft, 190 Maximum-Likelihood, 183, 239

asymptotisches Verhalten, 199 Erwartungstreue, 198 erweiterte Methode, 197 Fehler, 189 Konsistenz, 198

Meßgenauigkeit, 330 Median, 28, 102 Merge,47 Methode

Kosten, 279 Lagrangesehe Multiplikatoren, 277,

279,282

Variablenreduktion, 278 Minimax-Kriterium, 296 Minimierung, 239

goldener Schnitt, 246 eindimensionale, 245

INDEX

einfache Parametervariation, 254 Gittersuchmethode, 253 line search, 262 mit Schranken, 283 modifizierte Newton-Methode, 268 Monte Carlo Such methode , 254 Newton-Methode, 248, 260 ohne Nebenbedingungen, 240 Polynominterpolation, 251 Simplex-Methode, 255 Standardalgorithmus, 263 steilster Abstieg, 266 Suche, 252 Suchmethoden, 245 variable Metrik, 270

Minimum globales, 240 lokales, 240

Minimum spanning tree, 54 Mittelwert, 98,102,137,142,179

einer Gleichverteilung, 183 mit Abschneiden, 181 Schätzung, 204

Momente, 101 Monte Carlo-Integration, 170 Monte Carlo-Methoden, 154

Neben bedingungen aktive, 280 Gleichungen, 275 inaktive, 280 lineare Gleichungen, 276 nichtlineare Gleichungen, 279 Ungleichungen, 280

Nebenwirkungen, 26 Neuronale Netze, 300 Normalgleichungen, 89 Normalverteilung, 111 Normierungsfehler, 211

Page 9: Literat urverzeichnis - Springer978-3-663-05690-4/1.pdf · Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing. Chapman and Hall, London,

INDEX

Nullraum, 91 numerische Daten, 20

Optimierung, 239 Bedingungen, 241

Ordnung invers lexikalische, 31 lexikalische, 31

Orthogonale Polynome, 320 Polynomanpassung, 325, 327

Parameterschätzung, 178 Kriterien, 178 mit systematischen Fehlern 211

Parametrisierung, 305 ' Paritätstest, 18 Partitionierung, 78, 172 Periode, 156 Pivotelement, 64, 84 Poisson-Verteilung, 107, 191 Polynom, 308

charakteristisches, 60 Polynome

orthogonale, 307 Posterior, 205 Prüfung von Hypothesen, 285 Prafixeigenschaft, 14 Prior, 205 Produkt

skalares, von Vektoren, 57 Programmierungsregeln, 23 Programmorganisation, 23 Programmprüfung, 24 Pseudo-Zufallszahlen, 155 pun, 236 Punkt

erlaubter, 275

quadratische Form, 78, 82 quadratischer Mittelwert, 102 Quantile, 28 Quasi-Zufallszahlen, 176

Rändern, 81 random walk test, 162

Randverteilung, 136 Rang, 42 Rangtabelle, 42 record,36 Reflexion, 18 Regression, 227, 305 Regularisierung, 332, 342 Residuen, 89, 212, 214, 219 Richtmyer-Generator, 177 rms, 102 Rotation

Jacobi,84

357

Rundungsfehler, 22, 60, 64, 65, 81, 218, 271-273

Saatzahl, 156 Schätzung

erwartungstreue, 132 unverzerrte, 132

Schiefe, 101 Simplex-Methode, 255 Simpsonsche Regel, 176 Sortieren, 29, 36

durch Auswahl, 37 durch Einfügen, 37 große Datensätze, 40 Heapsort, 45 Mergesort, 48 Quicksort, 42 Shell's Algorithmus, 38

Sortierschlüssel, 36 spanning tree, 55 Speicherung

spaltenweise, 31 zeilenweise, 31

spektrale Zerlegung, 241 Spline-Funktion, 308

Eigenschaften, 310 Koeffizienten, 310 kubische, 308 natürliche, 309 vollständige, 309

Standardabweichung, 101, 190 Stapel, 35

Page 10: Literat urverzeichnis - Springer978-3-663-05690-4/1.pdf · Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing. Chapman and Hall, London,

358

stationärer Punkt, 241, 243 Stichprobe, 131

Mittelwert, 131, 135 Varianz, 131, 135

Stirlingsche Formel, 104 Students Test, 290 Suche, 49

binäre, 50 sequentielle, 49

symmetrische Matrix Eigenvektoren, 241 Eigenwerte, 241

t-Verteilung, 124 Tabelle, 31

Index, 42 Rang, 42

Testgröße, 292 tools, 24 Transfermatrix, 331 Transformation

Ähnlichkeits-, 61, 83 Householder-, 87 inverse, 59 lineare, 59 mehrerer Variabler, 146 von Wahrscheinlichkeitsdichten,

145 Trapezregel, 175 Tschebyscheff-Ungleichung, 128

up-down test, 161

Variable Schranken, 283 Transformation, 275

Varianz, 101, 102, 137 minimale, 200

Varianzred uktion, 171 Vektor, 31, 57

orthogonaler, 57 projizierter Gradient, 276 transponierter, 57

Vertauschen von Variablen, 63 Verteilungen, 98

Messung, 330 Verteilungsfunktion, 100 Verwurfsregion, 292

Auswahl, 294

INDEX

volle Breite auf halber Höhe, 114

Wahrscheinlichkeit, 93 bedingte, 95 Kombination, 94

Wahrscheinlichkeitsdichte, 99 bedingte, 136 mehrdimensionale, 142 Transformation, 145

Wahrscheinlichkeitsverteilung, 100 wahrscheinlichster Wert, 102 Warteschlange, 35

Zeiger, 33 zentraler Grenzwertsatz, 129 Ziegenproblem, 96 Zipfs Gesetz, 15 Zufallsvariable, 98

diskrete, 98 in zwei Dimensionen, 136 kontinuierliche, 99

Zufallswinkel, 165 Zufallszahlen, 155

allgemeine Verteilung, 162 Binomialverteilung, 170 Cauchy-Verteilung, 170 X2 Verteilung, 169 für spezielle Verteilungen, 165 gleichförmige, 155 Normalverteilung, 166, 167 Poisson-Verteilung, 168 Pseudo-, 155 Quasi-, 176

Zufallszahlengenerator , 155 Test, 161

Zweierkomplement, 20

Page 11: Literat urverzeichnis - Springer978-3-663-05690-4/1.pdf · Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing. Chapman and Hall, London,

Butz Fourier­transformation für Fußgänger

Von Prof. Dr. Tilman Butz Universität Leipzig

1998. ca. 160 Seiten. 16,2 x 22,9 cm. Kart. ca. DM 45,­ÖS 329,- I SFr 41,­ISBN 3-00202-7

Diese Schrift ist ein unterhaltsames Lehrbuch. Es wendet sich an alle, die in der Ausbildung und in ihrer beruflichen Praxis mit Fourier­transformationen zu tun haben: Studenten der Ingenieur- und Na­turwissenschaften ab dem I. Se­mester, aber auch Berufstätige, die Spektralanalysen oder Fourier­transformationsmethoden benöti-

Fourier­transfonnation für Fußgänger

gen. Dabei sind elementare Kennt­nisse der Integralrechnung wün­schenswert.

Das Buch behandelt sowohl Fourierreihen als auch kontinuier­liche und diskrete Fouriertrans­formationen. Außerdem werden Fensterfunktionen ausführlich dis­kutiert. Zahlreiche Abbildungen und Beispiele, die vom Leser meist von Hand nachgerechnet werden können, machen den Stoff »leicht verdaulich«.

Preisänderungen vorbehalten.

B. G. Teubner Stuttgart . Leipzig

Page 12: Literat urverzeichnis - Springer978-3-663-05690-4/1.pdf · Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing. Chapman and Hall, London,

Bandemer Ratschläge zum mathematischen Umgang mit Ungewißheit Reasonable Computing

Von Prof. Dr. Hans Bandemer Halle/Saale

1997. 228 Seiten mit 23 Bildern. 16,2 x 22,9 cm. Geb. DM 54,80 ÖS 400,-/ SFr 49,­ISBN 3-8154-2118-7

Auf der Basis seiner jahrzehntelan­gen Erfahrungen mit der Anwen­dung mathematischer Methoden gibt der Autor Ratschläge, wie die den Problemen und Daten inne­wohnende Unsicherheit, die Unge­wißheit und Vagheit mathematisch erfaßt und verwendet werden kön­nen. Das Spektrum reicht dabei von der einfachen Interpolation bis

hin zu Wavelets, von der Fehler­fortpflanzung bis zur Fuzzytheorie und neuronalen Netzen. Der Schwerpunkt des Buches liegt in der hauptsächlich verbalen Darle­gung der Grundgedanken der ein­zelnen Zugänge und in Ratschlägen für deren vernünftige Benutzung in Abhängigkeit von der Zielstellung und der Informationslage des gege­benen praktischen Problems. Zum Verständnis genügt dem Leser ein Grundkurs in Mathematik auf Hochschulniveau.

Preisänderungen vorbehalten.

B. G. Teubner Stuttgart . Leipzig