Hallo schuer,
darauf zwei Antworten:
1.
im Jahr herunterbrechen will ohne das zu grosse Sprünge bei den Jahreswechseln auftreten
Diese Bedingung ist leicht zu erfüllen: Erstes und letztes Quartal jeweils auf Null setzen, den Rest auf die beiden mittleren Quartale verteilen. Dann gibt es überhauptkeine Sprünge am Jahreswechsel.
Ok, das hilft nicht, macht aber deutlich, dass Du Deine Anforderungen noch unzureichend spezifiziert hast.
2. Ich habe, genau wie Du, auch nicht so dick den Plan von Mathe, und würde das daher gerne von einer Blackbox gelöst haben, die ich nur bedienen, nicht aber verstehen muss. Ich denke, man kann das auf ein Optimisierungsproblem reduzieren und dann ein darauf speialisiertes Programm ansetzen. Ich als R-Nutzer würde mich zunächst auf die in R eingebaute Funktion optim stürzen. Was es da für Excel gibt, weiß ich nicht. Am Ende dieses Posts zitiere ich aus dem Handbuch zur optim-Funktion, welche Algorithmen da auswählbar sind. Vielleicht kann man nach Excel und diesen Namen googlen? Auch die Suche nach "Optimization Excel" in einer üblichen Websuchmaschine führt zu einer Reihe von Treffern.
JMTC,
Bernhard
PS: Aus der Anleitung zu optim in R:
- Code: Alles auswählen
The default method is an implementation of that of Nelder and Mead (1965), that uses only function values and is robust but relatively slow. It will work reasonably well for non-differentiable functions.
Method "BFGS" is a quasi-Newton method (also known as a variable metric algorithm), specifically that published simultaneously in 1970 by Broyden, Fletcher, Goldfarb and Shanno. This uses function values and gradients to build up a picture of the surface to be optimized.
Method "CG" is a conjugate gradients method based on that by Fletcher and Reeves (1964) (but with the option of Polak–Ribiere or Beale–Sorenson updates). Conjugate gradient methods will generally be more fragile than the BFGS method, but as they do not store a matrix they may be successful in much larger optimization problems.
Method "L-BFGS-B" is that of Byrd et. al. (1995) which allows box constraints, that is each variable can be given a lower and/or upper bound. The initial value must satisfy the constraints. This uses a limited-memory modification of the BFGS quasi-Newton method. If non-trivial bounds are supplied, this method will be selected, with a warning.
Nocedal and Wright (1999) is a comprehensive reference for the previous three methods.
Method "SANN" is by default a variant of simulated annealing given in Belisle (1992). Simulated-annealing belongs to the class of stochastic global optimization methods. It uses only function values but is relatively slow. It will also work for non-differentiable functions. This implementation uses the Metropolis function for the acceptance probability. By default the next candidate point is generated from a Gaussian Markov kernel with scale proportional to the actual temperature. If a function to generate a new candidate point is given, method "SANN" can also be used to solve combinatorial optimization problems. Temperatures are decreased according to the logarithmic cooling schedule as given in Belisle (1992, p. 890); specifically, the temperature is set to temp / log(((t-1) %/% tmax)*tmax + exp(1)), where t is the current iteration step and temp and tmax are specifiable via control, see below. Note that the "SANN" method depends critically on the settings of the control parameters. It is not a general-purpose method but can be very useful in getting to a good value on a very rough surface.