Large scale shell model calculations for exotic nuclei (II) · Large‐scale shell‐model...

29
Largescale shellmodel calculations for exotic nuclei (II) development in largescale calculations — Yutaka Utsuno Advanced Science Research Center, Japan Atomic Energy Agency Center for Nuclear Study, University of Tokyo The 12 th CNS International Summer School (CNSSS13), Aug. 28, 2013.

Transcript of Large scale shell model calculations for exotic nuclei (II) · Large‐scale shell‐model...

  • Large‐scale shell‐model calculations for exotic nuclei (II)

    —development in large‐scale calculations —

    Yutaka UtsunoAdvanced Science Research Center, Japan Atomic Energy Agency

    Center for Nuclear Study, University of Tokyo

    The 12th CNS International Summer School (CNSSS13), Aug. 28, 2013.

  • Outline of Lecture II• Methods for performing large‐scale shell‐model calculations

    – Exact diagonalization

    • Lanczos method

    • Exponential wall

    – Monte Carlo shell model (MCSM): beyond exact diagonalization

    • Basic idea

    • Brief procedures

    • Computational aspects

    • Some applications

  • Steps of the shell‐model calculation 1. For a given a (N, Z) nucleus, the valence 

    shell (and valence nucleons) is assumed. Only the equation of motion of the valence nucleons. 

    2. Consider all the possible many‐body states belonging to the valence shell and regard them as basis states.

    3. Prepare an effective interaction working inside the valence shell.

    4. Diagonalize the Hamiltonian matrix spanned by the basis states.

    5. Observables (energy, electromagmetictransition etc.) are calculated with the eigenstates obtained.

    magicnumbers = shell gaps

    inert core

    valenceshell

    Easy in principle …

  • Counting the number of basis states

    • The number of the basis states is

    where Ns and Np is the number of single‐particle states and the number of particles, respectively.

    0p3/2

    0p1/2

    Example of a basis state: 10Be in the p shell

    4He core (assumed to be inert)

    ‐1/2

    ‐1/2 +1/2

    +1/2

    +3/2‐3/2 ‐1/2 +1/2 +3/2‐3/2

    ‐1/2 +1/2

    total M(=Jz) = {(‐1/2)+(+3/2)}+{(‐1/2)+(+1/2)+(‐3/2)+(+1/2)} = 0 in this particular case

  • Symmetry consideration

    qi‐1qi

    0

    0

    • Matrix elements between different conserved quantum numbers

    ′ 0→ block diagonalization

    • M‐scheme– It is easy to classify basis states according to 

    total Jz(=M) because 

    ⋯ ⋯ |core

    has  1 ⋯ .

    • J‐scheme– M‐scheme matrix is reducible according to 

    total J. But it involves complicated basis construction. 

    qi+1

  • How to diagonalize a big matrix?• A straightforward method for diagonalizing a general 

    D‐dimensional matrix (such as the Householder transformation)– Memory usage: order of D2

    – # operations: order of D3

    – In the case of D=1010, memory≈1011 GB, and # operations≈1030

    (quiz: Evaluate computational time using current workstations with 100 GFLOPS.)

    • For the problems of our interest, computational time can be drastically reduced by using the Lanczos method.– Real symmetric matrix

    – Very sparse (i.e., Most of the matrix elements are zero.)

    – Only a few lowest states are needed.

  • Power method• A very simple method

    – In general, any vector can be expanded by eigenstates:⋯ where eigenvalues follows |E1|>|E2|>…

    – When a matrix (such as Hamiltonian) multiplication is applied to the vector repeatedly,

    – This means the amplitude of eigenstates with large eigenvalue is enhanced after the matrix is multiplied.

    Kn(H,v)

    Multiple operations of H define the so‐called Krylov subspace:

    , span , , … ,

  • Lanczos method• Define the Krylov subspace spanned by orthonormal bases as 

    follows:

    1. Let’s start with an arbitrary normalized vector : defining a normalized vector 

    2. In the same way,: defining a normalized vector 

    3. In general iteration  ,: defining a normalized 

    vector (quiz: Why does the component of  ,  , …,  vanish in the expansion of  ?)

    , span ,… ,

  • Lanczos method (cont’d)• In the expression of  ,  , …,  , the matrix is written as

    – HD (D: dimension) is equivalent to H.

    • Lowest eigenstates are rapidly converged with a small k (typically tens to hundreds independently of D).– # operations: 2×D2×k

    • For a sparse matrix (such as a shell‐model Hamiltonian), it is reduced to 2×D×n×k (n: typical number of non‐zero matrix elements per row)

    kk

    kkk

    kH

    1

    112

    332

    221

    11

  • Sparsity of the shell‐model Hamiltonian • For a Hamiltonian up to two body

    – Non‐zero matrix elements: between basis states which are different up to the two‐par cle level → most of matrix elements are zero

    – Typical n: 103 (two‐body force) and 104‐5 (three‐body force) 

    Courtesy of J. P. Vary

  • Example of energy convergence• 42Si in the sd‐pf shell (w/o excitation across the N=20 shell gap)

    – M‐scheme dimension: about 107

    convergedwithin 10‐5 MeV 

  • Exponential wall

    G.F. Bertsch, C.J. Dean, and W. Nazarewicz, SciDAC Review 6, 42 (2007).

    Shell‐model dimension for N=Z nuclei (no symmetry consideration)

  • Progress in the Lanczos diagonalization

    • Exponential development as a function of year both in dimension and in performance

    • Current limit ≈ 1010‐11

    Development of large‐scale shell model calculations

    1020 is too far.

    ●: Lanczos■: MCSM

  • Monte Carlo shell model (MCSM)• Aim: to reduce the size of the Hamiltonian matrix by choosing 

    efficient basis states

    ∗ ∗ ∗∗ ∗ ∗∗ ∗ ∗

    ∗ ∗∗

    ∗ ∗

    Conventional Shell Model

    ∗ ∗ ∗∗ ∗ ∗∗ ∗

    Monte Carlo Shell Modelbases important for a specific eigenstate

    all Slater determinants

    εε

    ε

    εε

    1

    2

    3

    1

    2

    diagonalization

    diagonalization

    ’’

    =H

    H

    T. Otsuka, M. Honma, T. Mizusaki, N. Shimizu, and Y. Utsuno, Prog. Part. Nucl. Phys. 47, 319 (2001).

    very big~ a billion or more

    spherical‐basis representation 

    “selected”‐basis representation 

    ~ a hundred or less

  • Spherical vs. deformed basis state• Spherical basis state

    ⋯ ⋯ |core

    – Each single‐particle state created by 

    or  has a good j and m.

    • Deformed basis state⋯ ⋯ |core

    – Each single‐particle state created by 

    or  does not necessarily have 

    a good j or a good m.

    – Mixing among difference spherical statesis characterized by a matrix D:

    ⋯en

    ergy

    pure d5/2

    mixing withs1/2, d3/2 etc.

  • MCSM wave function• Superposition of deformed Slater determinants with symmetry 

    restoration

    |Ψ |Φ

    where |Φ ∏ |core and  ∑

    – The energy of the state is determined by a set of D(d) (d=1, …, Nb): 

    , … , yields

    . f and gK are automatically determined by 

    diagonalizing H.

    – Ideally, the matrices D(d) are determined from the variational principle. But its practical implementation is not easy.

    superposition Projection onto good I, M, π

    deformed basis state

    MCSM basis dimension ≈ 100

  • Optimizing the basis states • MCSM wave function: 

    |Ψ ∑ ∑ |Φ

    • Optimizing the Slater determinants characterized by the matrices D(k) (k=1, 2, …, Nb) is the most essential procedure in MCSM.

    • For Nb = 1, the optimization is equivalent to the angular‐momentum projected Hartree‐Fock method (i.e., variational after projection).

    • For Nb > 1, the optimization is not so simple. See the next slide.

  • More about the optimization• In most cases, we adopt a sequential optimization of D(k) (k=1, …, 

    Nb), i.e., optimization done in the order of D(1), D(2), …

    – The first basis state is determined with the angular‐momentum projected Hartree‐Fock (JHF) method.

    – In optimizing the second basis characterized by D(2), the first basis is fixed by the solution of the JHF. Only D(2) is varied to obtain as low energy as possible. 

    – Similarly, in optimizing the k‐th basis characterized by D(k), the basis states already taken (i.e., D(1), D(2), …, D(k‐1)) are fixed. Only D(k) is varied to obtain as low energy as possible. 

    • The resulting energy E(Nb) decreases with the increase of Nb.

  • Stochastic or deterministic optimization

    • We choose either of the followings:1. Stochastic optimization (adopted by the 

    original MCSM)

    • Stochastic variation following a Monte Carlo sampling

    • If energy is lowered, this variation is adopted. If not, rejected. 

    2. Deterministic optimization (adopted recently) 

    • Calculating the conjugate gradient (CG) vector on the energy surface

    • Follow the direction of the CG vector until the minimum along the line.

    E

    reject

    accept

    start|>

  • Demonstrating the efficiency of MCSM• Example: 56Ni in the pf shell with M‐scheme dimension about 109

  • Comparison: stochastic or deterministic• example: 64Ge in the pf‐g9/2 shell (1014 dimension, beyond current 

    limit)

    Where is the exact energy?

  • Estimating the exact energy• Difficult with the dimensional plot

    • Energy variance defined as ‐2 is zero for an eigenstate. The plot of the variance is more useful to estimate the energy.– based on the work of Mizusaki and Imada (used in the Lanczos diag.)  

    N. Shimizu et al., Phys. Rev. C 82, 061305(R) (2010).

    Energy as a function of dimension

    Energy as a function of variance

    ?

  • Comparison between different plots• The CG method is more efficient than the stochastic optimization. 

    However, the extrapolated energy must be independent of the optimization method, as confirmed below.

    Courtesy of N. Shimizu

  • Computing infrastructure for MCSM• Massively parallel computers, mainly the K computer

    – Specifications of the K computer: 705,024 CPU cores, 11.28 PFLOPS

    • The large‐scale nuclear‐structure calculation mainly with MCSM is selected as one of the four projects constituting the HPCI Strategic Programs for Innovative Research (SPIRE) Field 5 “The origin of matter and the universe.”

  • Parallel efficiency in MCSM

    • Calculating one projected matrix element requires tens of thousands of unprojected matrix elements because of three‐dimensional integral (along the Euler angles): # matrix elements = 2×Nmeshz2×Nmeshy×Nb ≈ 106 >> # cores

    ***

    ******

    )(

    bNH Nb

    Nb‐1(fixed)

    Nb projected matrix elementscan be calculated concurrently.

    high parallel efficiency

  • Single‐core efficiency in MCSM• The most time‐consuming part for an unprojected matrix element

    ̅ ,

    – proportional to Ns4: much milder than exponential

    – v: sparse → much memory access and low efficiency

    • New numerical algorithm to transform to matrix multiplication

    Y. Utsuno et al., Comput. Phys. Commun. 184, 102 (2013).

  • Application 1: ab initio shell model• Aim: to confirm whether MCSM is useful for ab initio 

    calculations which require many valence orbits– Energies close to those of FCI are achieved with the extrapolation.

    – Beyond FCI calculation is also carried out.

    exact energy

    T. Abe et al., Phys. Rev. C 86, 054301 (2012). 

  • Application 2: neutron‐rich Ni region• Aim: to explore magicity and shell evolution

    – Example: nature of the low‐lying 0+ states in 68Ni

    0+2

    0+1

    0+3

    ~ -0.2~ 0.0 ~ 0.4

    pf + g9/2 + d5/2: 5×1015 M‐scheme dimension

    Y. Tsunoda et al.

  • Summary• In Lecture II, I have shown how to perform very big calculations in 

    the shell model.

    • Lanczos method: exact method– Sparsity of the Hamiltonian

    – Rapid convergence of the energy

    • Monte Carlo shell model (MCSM): approximate method– Avoids the exponential wall inherent to the shell model

    – Uses selected deformed Slater determinants with symmetry restoration

    – Can estimate the exact energy with the energy‐variance extrapolation

    – Well fits modern supercomputers

    • Acknowledgment to N. Shimizu, T. Abe, T. Mizusaki, T. Otsuka and the members of SPIRE Field 5 (2) Quantum Many‐Body.

    enable to diagonalize a big matrix