Dear Christian<br>Thank you very much for the quick answer.<br>The altix has an intel 10.1 c++ compiler istalled and could be an option.<br><a href="http://www.lrz-muenchen.de/services/software/programmierung/intel_compilers/">http://www.lrz-muenchen.de/services/software/programmierung/intel_compilers/</a><br>
The proposed project migration would not be a mere porting but a complete reimplementation of the solver which is a mixture of fortran 77 and 90 with MPI up to now. <br>So there is no code that could get in the way yet, but its a lot of work to be done and we are anxious to get the answers to some questions before we start. Perhaps you can answer some of them out of hand right now.<br>
You mentioned some parallel grid managers. Since up to now I have written the code needed for discretization myself, I do not know exactly what a tool like a grid manager really does and, even more important, what it does not. <br>
So I just describe our problem and what we hope to gain using dune.<br>We certainly need an inf-sup stable finite element pair( Taylor Hood for instance)  for a Stokes system with very strongly varying and even discontinuous viscosity.<br>
We also have to discretize a convection diffusion equation so wee need the ability to implement a streamline diffusion discretization, possibly with the same elements we used for the Stokes system.<br>We want to use a parallel algebraic multigrid solver for both of the discretized problems (because of the discontinuities).<br>
We want to be able to implement adaptive mesh refinement and do not want to bother about load balancing issues arising from this.<br><br>So <br>1.) We would be thankful if  you could give us your opinion if you deem our plan possible!<br>
and<br>2.) perhaps tell me what grid managers or solvers are available and how I can find out, what I need to know.<br>(A link to a documentation of a parallel grid manager that works with dune perhaps)<br><br>Thank you very much indeed.<br>
Markus <br> <br><br><br><br><div class="gmail_quote">Am 27. Juni 2008 09:29 schrieb Christian Engwer <<a href="mailto:christi@uni-hd.de">christi@uni-hd.de</a>>:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Dear Markus,<br>
<br>
(I'll answer in english, as some of the subscribers don't speek german)<br>
<div class="Ih2E3d"><br>
> Im besonderen interessieren mich in Bezug auf Dune die sgi-altix in München<br>
> und die IBM Jump in Jülich da wir dort Kontingente haben.<br>
> Haben Sie dune schon mal auf diesen Rechnern angewendet?<br>
> Falls nicht würde mich interessieren auf was für (größeren) Maschinen Dune<br>
> schon läuft.<br>
<br>
</div>None of these coputers were used yet. We did computations on the<br>
helics cluster in heidelberg (256 dual processor nodes = 512<br>
processes) and Robert did computation in Karlsruhe and at the<br>
supercomputing center in barcelona.<br>
<div class="Ih2E3d"><br>
> Auf den genannten Maschinen brauchen wir  mindestens 128 Prozessoren für<br>
> Produktionsläufe. Etwas vergleichbares<br>
> müsste es also schon sein.<br>
<br>
</div>Some of the grid managers available in Dune are parallel, your axact<br>
requirements would then have to evaluated. The linear algebra also<br>
offers parallel algorithms and good scalability.<br>
<br>
The main issue will be the compiler. Dune makes heavy use of<br>
template techniques. For example on the NEC vector computer in HLRS in<br>
Stuttgart Dune will not run, because there is no decent c++ compiler<br>
available for this platform. If there is a gcc available, your changes<br>
are good to get Dune running, same holds for the intel compiler.<br>
<br>
Cheers<br>
<font color="#888888">  Christian<br>
</font></blockquote></div><br>